首页 > 解决方案 > 自定义损失函数,Keras \\ ValueError: No gradients

问题描述

我正在尝试将我的 Keras 神经网络包装在一个class对象中。我已经在类设置之外实现了以下内容,但我想让它更加对象友好。总而言之,我的model调用函数sequential_model创建了一个sequential模型。在这compile一步中,我定义了我自己的损失函数weighted_categorical_crossentropy,我希望顺序模型实现它。但是,当我运行下面的代码时,出现以下错误:ValueError: No gradients provided for any variable:

我怀疑问题在于我如何定义weighted_categorical_crossentropy函数以供sequential.

同样,我能够以非面向对象的方式完成这项工作。任何帮助都感激不尽。

from tensorflow.keras import Sequential, backend as K

class MyNetwork(): 
        
    def __init__(self, file, n_output=4, n_hidden=20, epochs=3,
                 dropout=0.10, batch_size=64, metrics = ['categorical_accuracy'],
                 optimizer = 'rmsprop', activation = 'softmax'):

    [...] //Other Class attributes
 
    def model(self):
        self.model = self.sequential_model(False)
        self.model.summary()


    def sequential_model(self, val):
        K.clear_session()
        if val == False:
            self.epochs = 3
        regressor = Sequential()
        #regressor.run_eagerly = True
        regressor.add(LSTM(units = self.n_hidden, dropout=self.dropout, return_sequences = True, input_shape = (self.X.shape[1], self.X.shape[2])))
        regressor.add(LSTM(units = self.n_hidden, dropout=self.dropout, return_sequences = True))
        regressor.add(Dense(units = self.n_output, activation=self.activation))
    
        self.weights = np.array([0.025,0.225,0.78,0.020])

        regressor.compile(optimizer = self.optimizer, loss = self.weighted_categorical_crossentropy(self.weights), metrics = [self.metrics])
        regressor.fit(self.X, self.Y*1.0,batch_size=self.batch_size, epochs=self.epochs, verbose=1, validation_data=(self.Xval, self.Yval*1.0))

        return regressor

    def weighted_categorical_crossentropy(self, weights):
        weights = K.variable(weights)
        def loss(y_true, y_pred):
            y_pred /= K.sum(y_pred, axis=-1, keepdims=True)
            y_pred = K.clip(y_pred, K.epsilon(), 1 - K.epsilon())
            loss = y_true * K.log(y_pred) * weights
            loss = -K.sum(loss, -1)
            return loss

标签: pythontensorflowobjectkeras

解决方案


上面的代码有几个问题,但最明显的一个是你没有返回lossfrom weighted_categorical_crossentropy。它应该看起来更像:

    def weighted_categorical_crossentropy(self, weights):
        weights = K.variable(weights)
        def loss(y_true, y_pred):
            y_pred /= K.sum(y_pred, axis=-1, keepdims=True)
            y_pred = K.clip(y_pred, K.epsilon(), 1 - K.epsilon())
            loss = y_true * K.log(y_pred) * weights
            loss = -K.sum(loss, -1)
            return loss
        return loss # Return the callable function!

错误是ValueError: No gradients provided for any variable因为 loss方法没有返回任何东西,它返回 None!如果你试图用 拟合一个方法loss=None,模型将无法计算梯度,因此它会抛出同样的错误。

接下来是您return_sequences = True在非循环层之前的层中使用的那个。这会导致在Dense形状错误的数据上调用该层,这仅适用于循环层。不要那样使用它。
如果您有充分的理由使用return_sequences = True,那么您必须添加Dense如下层:

model.add(keras.layers.TimeDistributed(keras.layers.Dense(...)))

这将导致层分别Dense每个时间步的输出序列起作用。这也意味着您的体型必须适当。y_true

您定义的自定义损失函数可能存在其他问题,但我无法推断输入/输出形状,因此您必须运行它并添加它是否有效。可能会有矩阵乘法形状不匹配。

最后但同样重要的是,考虑使用子类化 API。它能让你的任何操作更容易编写吗?

感谢您阅读,一旦获得该信息,我将更新此答案。干杯。


推荐阅读