如何选择张量流中的交叉熵损失?分类问题,例如逻辑回归或多项逻辑回归,优化了交叉熵损失。通常,交叉熵层遵循softmax层,其产生概率分布。在tensorflow中,至少有十几种不同的交叉熵损失函数:tf.losses.softmax_cross_entropytf.losses.sparse_softmax_cross_entropytf.losses.sigmoid_cross_entropytf.contrib.losses.softmax_cross_entropytf.contrib.losses.sigmoid_cross_entropytf.nn.softmax_cross_entropy_with_logitstf.nn.sigmoid_cross_entropy_with_logits...哪个只适用于二进制分类,哪个适用于多类问题?你何时应该使用sigmoid而不是softmax?如何在sparse功能与别人不同,为什么仅是它softmax?
2 回答
慕尼黑的夜晚无繁华
TA贡献1864条经验 获得超6个赞
但是对于版本1.5,softmax_cross_entropy_with_logits_v2
必须使用它,而使用其参数argument key=...
如下>
softmax_cross_entropy_with_logits_v2(_sentinel=None, labels=y,\ logits = my_prediction, dim=-1, name=None)
- 2 回答
- 0 关注
- 1209 浏览
添加回答
举报
0/150
提交
取消