keras - Keras 中带有附加动态参数的自定义自适应损失函数
问题描述
我必须使用一个自适应的自定义损失函数,它eps
在 keras 中需要一个额外的动态参数 ()。该参数eps
是一个标量,但从一个样本到另一个样本会发生变化:因此应该在训练期间调整损失函数。我使用了一个生成器,我可以在训练期间通过生成器的每次调用传递这个参数(generator_train[2]
)。基于对类似问题的回答,我尝试编写以下包装:
def custom_loss(eps):
def square_err(y_true, y_pred):
nom = K.sum(K.square(y_pred - y_true), axis=-1)
denom = eps**2
loss = nom/denom
return loss
return square_err
但我正在努力实现它,因为它eps
是一个动态变量:我不知道在训练期间如何将这个参数传递给损失函数(model.fit
)。这是我的模型的简单版本:
model = keras.Sequential()
model.add(layers.LSTM(units=32, input_shape=(32, 4))
model.add(layers.Dense(units=1))
model.add_loss(custom_loss)
opt = keras.optimizers.Adam()
model.compile(optimizer=opt)
history = model.fit(x=generator_train[0], y=generator_train[1],
steps_per_epoch=100
epochs=50,
validation_data=gen_vl,
validation_steps=n_vl)
您的帮助将不胜感激。
解决方案
只需传递“样本权重”,这将1/(eps**2)
适用于每个样本。
您的生成器应该只是输出x, y, sample_weights
,仅此而已。
您的损失可能是:
def loss(y_true, y_pred):
return K.sum(K.square(y_pred - y_true), axis=-1)
在fit
中,您不能在生成器中使用索引,您将传递 just generator_train
、 no x
、 no y
、 just generator_train
。