首页 > 解决方案 > Keras 中带有附加动态参数的自定义自适应损失函数

问题描述

我必须使用一个自适应的自定义损失函数,它eps在 keras 中需要一个额外的动态参数 ()。该参数eps是一个标量,但从一个样本到另一个样本会发生变化:因此应该在训练期间调整损失函数。我使用了一个生成器,我可以在训练期间通过生成器的每次调用传递这个参数(generator_train[2])。基于对类似问题的回答,我尝试编写以下包装:

def custom_loss(eps):
    def square_err(y_true, y_pred):
        nom = K.sum(K.square(y_pred - y_true), axis=-1)
        denom = eps**2
        loss = nom/denom
        return loss
    return square_err

但我正在努力实现它,因为它eps是一个动态变量:我不知道在训练期间如何将这个参数传递给损失函数(model.fit)。这是我的模型的简单版本:

model = keras.Sequential()
model.add(layers.LSTM(units=32, input_shape=(32, 4))
model.add(layers.Dense(units=1))
model.add_loss(custom_loss)
opt = keras.optimizers.Adam()
model.compile(optimizer=opt)
history = model.fit(x=generator_train[0], y=generator_train[1],
                    steps_per_epoch=100
                    epochs=50,
                    validation_data=gen_vl,
                    validation_steps=n_vl)

您的帮助将不胜感激。

标签: kerasloss-function

解决方案


只需传递“样本权重”,这将1/(eps**2)适用于每个样本。

您的生成器应该只是输出x, y, sample_weights,仅此而已。

您的损失可能是:

def loss(y_true, y_pred):
    return K.sum(K.square(y_pred - y_true), axis=-1)

fit中,您不能在生成器中使用索引,您将传递 just generator_train、 no x、 no y、 just generator_train


推荐阅读