machine-learning - 解码器中的编码器 = LSTM(128)(encoder) 是隐藏状态还是解码器的输入?
问题描述
这是一个示例代码:
inputs = input(shape=shape)
encoder = LSTM(128)(inputs)
decoder = LSTM(128)(encoder)
现在,是encoder
处于隐藏状态还是解码器decoder = LSTM(128)(encoder)
的输入?
如果它是隐藏状态,那么encoder = LSTM(128)(inputs)
这里的输入也将作为隐藏状态传递,当我们希望它作为输入传递给编码器而不是隐藏状态时。
如果它是输入,那么模型将是错误的,因为我们希望它成为解码器的隐藏状态,但是所有人都使用示例代码中显示的相同代码并且它可以工作!
解决方案
推荐阅读
- php - jquery刷新div内容(php函数不是文件)
- html - 链接区域大于图片
- c++ - C++刷新问题:为什么使用setvbuf后缓冲区之前的一些文本输出已满
- python - Python 中的 Apache Beam SQL 错误 - ValueError:不支持的类型:任何
- r - 在 dplyr 中重新编码以更改导致错误的标签:参数 2 必须命名,而不是未命名
- rabbitmq - 使用 spring-rabbit 从多个 rabbit 队列分片中消费
- python - Sharepoint API Python Office365的身份验证错误-KeyError:'FedAuth'
- python - 从多个 tiff 格式图像中提取帧
- swift - NSImage:直接设置像素的颜色
- node.js - 发出 HTTP 请求以等待特定属性的响应