为了账号安全,请及时绑定邮箱和手机立即绑定

Keras 自定义损失函数中y_true的大小

Keras 自定义损失函数中y_true的大小

至尊宝的传说 2022-08-25 15:42:45
我正在尝试在Keras中为U-net编写一个自定义损失函数,其目的不仅是计算预测图像和真实图像的均方误差(MSE),还要计算其梯度的MSE。我不确定这是否正常,但是在我的自定义损失函数中,即使从以下链接中,我也期望y_true的大小与y_pred相同,并且在我的情况下,它应该具有以下大小:(batch_size,128,256, 3).y_true我已经列出了我为自定义损失函数编写的代码,如果有人能给出任何建议,我将不胜感激。import tensorflow.keras.backend as K# Encouraging the predicted image to match the label not only in image domain, but also in gradient domaindef keras_customized_loss(batch_size, lambda1 = 1.0, lambda2 = 0.05):    def grad_x(image):        out = K.zeros((batch_size,)+image.shape[1:4])        out = K.abs(image[0:batch_size, 1:, :, :] - image[0:batch_size, :-1, :, :])        return out    def grad_y(image):        out = K.zeros((batch_size,)+image.shape[1:4])        out = K.abs(image[0:batch_size, :, 1:, :] - image[0:batch_size, :, :-1, :])        return out    #OBS: Now y_true has size: (None, None, None, None), figure out how to solve it    def compute_loss(y_true, y_pred):        pred_grad_x = grad_x(y_pred)        pred_grad_y = grad_y(y_pred)        true_grad_x = grad_x(y_true)        true_grad_y = grad_y(y_true)        loss1 = K.mean(K.square(y_pred-y_true))         loss2 = K.mean(K.square(pred_grad_x-true_grad_x))        loss3 = K.mean(K.square(pred_grad_y-true_grad_y))        return (lambda1*loss1+lambda2*loss2+lambda2*loss3)    return compute_lossmodel.compile(optimizer='adam', loss = keras_customized_loss(BATCH_SIZE), metrics=['MeanAbsoluteError'])
查看完整描述

1 回答

?
慕森王

TA贡献1777条经验 获得超3个赞

None意味着它接受可变大小。

因此,您的自定义损失可以非常灵活。


实际大小自然是传递给 的数据批的大小。

如果您的数据具有形状,则无需担心。fit(samples, 128,256,3)


但是你的代码中有很多不必要的东西,你可以:


def keras_customized_loss(lambda1 = 1.0, lambda2 = 0.05):

    def grad_x(image):

        return K.abs(image[:, 1:] - image[:, :-1])


    def grad_y(image):

        return K.abs(image[:, :, 1:] - image[:, :, :-1])


    def compute_loss(y_true, y_pred):

        pred_grad_x = grad_x(y_pred)

        pred_grad_y = grad_y(y_pred)

        true_grad_x = grad_x(y_true)

        true_grad_y = grad_y(y_true)

        loss1 = K.mean(K.square(y_pred-y_true)) 

        loss2 = K.mean(K.square(pred_grad_x-true_grad_x))

        loss3 = K.mean(K.square(pred_grad_y-true_grad_y))


        return (lambda1*loss1+lambda2*loss2+lambda2*loss3)


    return compute_loss


查看完整回答
反对 回复 2022-08-25
  • 1 回答
  • 0 关注
  • 68 浏览
慕课专栏
更多

添加回答

举报

0/150
提交
取消
意见反馈 帮助中心 APP下载
官方微信