首页 > 解决方案 > 冻结神经网络的权重,使其输出在特定点取特定值(张量流)

问题描述

假设我有一个看起来像这样的神经网络

def neural_net(x):
    layer_1 = tf.add(tf.matmul(x, weights['h1']), biases['b1'])
    layer_1 = tf.nn.sigmoid(layer_1)

    layer_2 = tf.add(tf.matmul(layer_1, weights['h2']), biases['b2'])
    layer_2 = tf.nn.sigmoid(layer_2)

    out_layer = tf.matmul(layer_2, weights['out']) + biases['out']
    return out_layer

张量流中是否有办法以neural_net(a)始终返回ba,b实数在哪里)的方式固定权重,例如,f(1) = 0

标签: pythontensorflowmachine-learningneural-network

解决方案


但是,当然,答案在某种程度上取决于目的。

最简单的解决方案是仅缩放输出。例如,通过线性回归器运行结果。虽然这给出了预期的结果,但它可能不是您想要的。

然而,可能更好的方法是在训练期间将这个额外的目标集成到损失函数中。通过这种方式,您可以在额外要求和拟合神经网络的权重之间进行权衡。您可以在https://www.tensorflow.org/api_guides/python/contrib.losses找到如何调整损失的通用描述

images, labels = LoadData(...)
predictions = MyModelPredictions(images)

weight = MyComplicatedWeightingFunction(labels)
weight = tf.div(weight, tf.size(weight))
loss = tf.contrib.losses.mean_squared_error(predictions, depths, weight)

您的特殊情况的重量需要非常高。这样,您的标准就不能完全保证,但很有可能。

此外,您需要重写小批量机制以在每个批次中注入您的(x,y) = (1,0)示例


推荐阅读