python - Keras 隐藏状态和单元状态有错误的形状
问题描述
有很多关于如何从 LSTM 中获取 c 和 h 的资源。它的返回值都设置为 true,并且我将 h 和 c 存储在变量中,如下面的代码所示。这是在训练网络后的推理过程中。我的模型的编码器一半应该吐出长度为 hidden_dim 的 h 和 c,但正如您将在下面看到的那样,情况并非如此:
self.enc1 = LSTM(hidden_dim, return_sequences=True, return_state=True, name='enc1')
self.emb_A = Embedding(output_dim = emb_dim, input_dim = vocabulary, input_length = None, mask_zero=True, name='embA')
...
inference_encInput = Input(shape=(None,), dtype="int32", name="input_seq")
temp = self.emb_A(inference_encInput)
temp, h, c = self.enc1(temp)
encoder_states = [h, c]
enc_model = Model(inputs = inference_encInput, outputs = encoder_states)
...
predicted_states = enc_model.predict(indices_arr)
print("encoder states are "+str(predicted_states))
该打印语句的结果是:
encoder states are [array([[-0.3114952 , -0.19627409],
[ 0.16007528, 0.72028404],
[-0.7607165 , 0.5128824 ]], dtype=float32), array([[-0.8645954 , -0.90217674],
[ 0.31057465, 0.9236232 ],
[-0.99791354, 0.99934816]], dtype=float32)]
我的隐藏维度只有 2,因为我只是对极其简单的训练数据进行基本测试。二维向量的数量始终与我尝试编码的序列的长度相同,在这种情况下为 3,这表明我可能以某种方式获得了一系列状态?但是 h 和 c 应该只是最终的隐藏和单元状态。我也不认为只取最后一个是正确的,肯定还有其他事情发生。我不知道我在这里做错了什么,特别是因为解码器的状态在每个时间步都正确获得:
new states for decoder are [array([[ 0.19158483, -0.16113694]], dtype=float32), array([[ 0.19398187, -0.37419504]], dtype=float32)]
解决方案
如果有人看到这个帖子,我想通了。我作为一个列表传递给 model.predict(),类似于 model.predict([1 15 14 2]),但它认为这是我想要预测的事物的列表。对于 lstm,我们希望发送所有四个时间步以进行预测,因此它需要是列表的列表,如 model.predict([[1 15 14 2]])。
推荐阅读
- python - 重启 Python 3.6 GUI - wxpython
- sql-server - 为什么在使用比较运算符时进行索引扫描而不是查找
- android - 关闭 getContentResolver 游标
- c - 将值分配给指针结构会导致分段错误
- c# - WPF 矩形在圆圈中移动而不是旋转
- python - 在 Django admin 中提交表单后添加数据
- interface - 如何在 Directus 中重新排序/排序集合列表?
- c# - 不推荐使用的每种方法 Automapper 升级
- javascript - 如何在nodejs中的多个文件之间共享变量
- php - PHP Codeigniter - 无限循环查询