为了账号安全,请及时绑定邮箱和手机立即绑定

“tf.nn.relu(A)”和“tf.maximum(A, 0)”是一样的吗?

“tf.nn.relu(A)”和“tf.maximum(A, 0)”是一样的吗?

凤凰求蛊 2021-10-12 16:49:54
这里有两个代码。tf.nn.relu("output of previous layer")tf.maximum("output of previous layer", 0)这两个行为完全一样吗?换句话说,是否有可能用另一个替换一个?
查看完整描述

1 回答

?
当年话下

TA贡献1890条经验 获得超9个赞

一旦 relu 被定义为:

max(features, 0)

他们基本上是一样的。两者都将张量作为输入并返回张量。唯一的区别是支持的类型。

tf.nn.relu支持以下类型:

  • float32float64int32uint8int16int8int64bfloat16uint16halfuint32uint64,qint8

while tf.maximum支持上述类型的一个子集:

  • halffloat32float64int32,int64


查看完整回答
反对 回复 2021-10-12
  • 1 回答
  • 0 关注
  • 193 浏览
慕课专栏
更多

添加回答

举报

0/150
提交
取消
意见反馈 帮助中心 APP下载
官方微信