deep-learning - 多层 RNN 的隐藏层的输入是什么
问题描述
这个问题很清楚。只有一个部分我还不知道答案……在本文的图 1 中,深层的输入是相同的输入(即 x[t])还是前一层的输出?
一个非常简单的表达问题的方法是在论文的图 1 中,是红线越过每一层,还是前一层的输出。
我认为所有层在时间 t 的输入是 x[t] 因为如果它是前一层的输出并且 x[t] 与 h[t] 的维度不同,那么你需要所有隐藏的 GRU单元格为 t 输入接受不同的维度(即第一层将接受隐藏状态和输入,但所有后续层将接受来自 t-1 的相应隐藏状态以及来自前一层的隐藏状态)。
但话又说回来,在我的一个课程中,TA 有一个解决方案,假设 x[t] 和 h[t] 是相同的维度,因此对于后续层,他传递了前面的层输入......这看起来不像一般情况下会这样。
可能 tensorflow 和 pytorch 源代码会提供明确的答案?
解决方案
想通了Pytorch。这绝对是时间 t 的输入,因为所有层都具有相同的输入维度。
我还没有找到暗示这一点的 tensorflow 特定文档,但我假设它是相同的。
推荐阅读
- php - 使用 simple_html_dom 从网站上抓取文本。我想从我正在抓取的 div 中删除一个 div 类
- python - 忽略区分大小写的关键字集
- c# - 登录 IdentityServer 4 时出现 404
- python - 将字符串转换为字典后,“列表索引必须是整数,而不是 str”
- ios - 导航栏标题变为默认黑色,而不是我在 viewWillAppear 中设置的颜色
- sql - SQL 中增量值的动态透视
- http - 允许用户为 Apache Tomcat 选择端口:应该如何计算 HTTPS 和 AJP 端口号?
- javascript - FCM 不发送 webpush 通知
- c++ - 未能尝试定义 Boost::mp11::find_if 谓词
- ios - How to know what type is the data sent?