1 回答

TA贡献1829条经验 获得超6个赞
问题是它们有不同的实现。
正如 pytorch文档所说,nn.CrossEntropyLoss将nn.LogSoftmax()和组合nn.NLLLoss()在一个类中。但是,tensorflow文档指定keras.backend.categorical_crossentropy默认情况下不应用 Softmax,除非您设置from_logits为 True。出于这个原因,keras.backend.categorical_crossentropy除非您使用from_logits=True.
如果你不想事先应用 softmax,你应该使用:
import numpy as np
import torch as t
import torch.nn as nn
import tensorflow.keras.backend as K
y_true = np.array([[0, 0, 0, 1, 0, 0, 0, 0, 0, 0, 0]])
y_pred = np.array([[0.1, 0.2, 0.3, 0.4, 0.5, 0.6, 1, 0.41, 0.31, 0.21, 0.11]])
print("Keras", K.categorical_crossentropy(K.constant(y_true), K.constant(y_pred), from_logits=True))
# output: Keras tf.Tensor([2.408051], shape=(1,), dtype=float32)
print("PyTorch", nn.CrossEntropyLoss()(t.tensor(y_pred).float(), t.tensor(y_true).argmax(dim=-1)))
# output: PyTorch tensor(2.4081)
否则,您可以在计算 categorical_crossentropy 之前手动应用 Softmax
import numpy as np
import torch as t
import torch.nn as nn
import tensorflow.keras.backend as K
y_true = np.array([[0, 0, 0, 1, 0, 0, 0, 0, 0, 0, 0]])
y_pred = np.array([[0.1, 0.2, 0.3, 0.4, 0.5, 0.6, 1, 0.41, 0.31, 0.21, 0.11]])
print("Keras", K.categorical_crossentropy(K.constant(y_true), K.softmax(K.constant(y_pred))))
# output: Keras tf.Tensor([2.408051], shape=(1,), dtype=float32)
print("PyTorch", nn.CrossEntropyLoss()(t.tensor(y_pred).float(), t.tensor(y_true).argmax(dim=-1)))
# output: PyTorch tensor(2.4081)
因此,您不应像在示例中那样使用keras.backend.categorical_crossentropywith 。from_logits=False
tf.keras.backend.categorical_crossentropy
target:与输出形状相同的张量。
output:由 softmax 产生的张量(除非 from_logits 为 True,在这种情况下输出预计为 logits)。
from_logits:布尔值,输出是 softmax 的结果,还是 logits 的张量。
添加回答
举报