这里有两个代码。tf.nn.relu("output of previous layer")tf.maximum("output of previous layer", 0)这两个行为完全一样吗?换句话说,是否有可能用另一个替换一个?
1 回答
当年话下
TA贡献1890条经验 获得超9个赞
一旦 relu 被定义为:
max(features, 0)
他们基本上是一样的。两者都将张量作为输入并返回张量。唯一的区别是支持的类型。
将tf.nn.relu
支持以下类型:
float32
,float64
,int32
,uint8
,int16
,int8
,int64
,bfloat16
,uint16
,half
,uint32
,uint64
,qint8
while tf.maximum
支持上述类型的一个子集:
half
,float32
,float64
,int32
,int64
添加回答
举报
0/150
提交
取消