lstm - batch_first 会影响 Pytorch LSTM 中的隐藏张量吗?
问题描述
会batch_first
影响 Pytorch LSTM 中的隐藏张量吗?
即如果batch_first
参数为真,隐藏状态是否为(numlayer*direction,num_batch,encoding_dim)
或(num_batch,numlayer*direction,encoding_dim)
我都测试过,两者都没有错误。
解决方案
前段时间我也在思考同样的问题。就像laydog概述的那样,在文档中它说
batch_first – 如果为 True,则输入和输出张量提供为 (batch, seq, feature)
据我了解,我们正在谈论隐藏/单元状态元组的问题,而不是实际的输入和输出。
对我来说,这似乎很明显这不会影响他们提到的隐藏状态:
(批次、序列、特征)
这显然是指输入和输出,而不是由两个具有形状的元组组成的状态元组:
(num_layers * num_directions,批处理,hidden_size)
所以我很确定隐藏状态和单元状态不会受此影响,更改顺序隐藏状态元组对我来说也没有意义。
希望这可以帮助。
推荐阅读
- java - 在 JAVA 和 Spring 中设计自定义工作流
- algorithm - 比例分配算法
- python-3.x - Python列表理解字典和OpenCV
- javascript - 单独编译 Angular 组件并在 HTML 页面中一起使用它们
- maven - nexus-staging-maven-plugin 在没有信息的情况下返回 401
- reactjs - React Native - 未定义不是一个对象(评估'singleValue.stopTracking')
- ruby-on-rails - Rails 建模与多个用户的聊天室和对话的 ActiveRecord 关联
- sql - SQL:在记录插入时自动生成通用 ID
- powershell - 通过 PowerShell 发送电子邮件
- android - 如何找到我的应用在没有 Android Studio 的情况下停止的原因