deep-learning - 描述基于 LSTM 层/网络的工作负载时缺少特征大小
问题描述
LSTM 网络的输入张量形状是 [batch, timesteps, features]。但是在很多地方,我只看到了 LSTM 内核的批量大小和时间步数(除了隐藏大小之外)。
一些例子:
在定义 DeepBench 基准时(https://github.com/baidu-research/DeepBench)。在页面上搜索“Recurrent Ops Results”。
在 Microsoft Brainwave ISCA'18 论文中 ( https://www.microsoft.com/en-us/research/uploads/prod/2018/06/ISCA18-Brainwave-CameraReady.pdf )。见表五。
我对为什么缺少特征维度感到困惑。是否有必要指定特征数量(或嵌入大小)以使用 LSTM 内核/网络完全指定工作负载?
解决方案
推荐阅读
- python - 如何在硒中使用代理?
- c# - C# 内存问题
- r - 如何使用 do.call() 读取特定行?
- android - 空闲后应用程序参与时如何消除延迟
- typescript - ts-node 正在更改 tsconfig.json 文件
- python - Python单击200px x 200px正方形内的每个点
- postgresql - Spring Hibernate/JPA Postgres:类型字符变化的值太长(255)
- php - 如何测试抽象类?
- responsive-design - 固定的引导 v4 卡
- rx-java - 在处理列表时选择使用 Observable.just 或 Single