为了账号安全,请及时绑定邮箱和手机立即绑定

如何选择张量流中的交叉熵损失?

如何选择张量流中的交叉熵损失?

如何选择张量流中的交叉熵损失?分类问题,例如逻辑回归或多项逻辑回归,优化了交叉熵损失。通常,交叉熵层遵循softmax层,其产生概率分布。在tensorflow中,至少有十几种不同的交叉熵损失函数:tf.losses.softmax_cross_entropytf.losses.sparse_softmax_cross_entropytf.losses.sigmoid_cross_entropytf.contrib.losses.softmax_cross_entropytf.contrib.losses.sigmoid_cross_entropytf.nn.softmax_cross_entropy_with_logitstf.nn.sigmoid_cross_entropy_with_logits...哪个只适用于二进制分类,哪个适用于多类问题?你何时应该使用sigmoid而不是softmax?如何在sparse功能与别人不同,为什么仅是它softmax?
查看完整描述

2 回答

?
慕尼黑的夜晚无繁华

TA贡献1864条经验 获得超6个赞

但是对于版本1.5,softmax_cross_entropy_with_logits_v2必须使用它,而使用其参数argument key=...如下>

softmax_cross_entropy_with_logits_v2(_sentinel=None, labels=y,\
logits = my_prediction, dim=-1, name=None)


查看完整回答
反对 回复 2019-08-24
  • 2 回答
  • 0 关注
  • 1209 浏览

添加回答

举报

0/150
提交
取消
意见反馈 帮助中心 APP下载
官方微信