machine-learning - 如果不是为了提高速度,那么减少 FLOP 和参数大小的目的是什么?
问题描述
CNN 算法如 DenseNet DenseNet强调参数效率,通常会导致更少的 FLOP。但是,我很难理解的是为什么这很重要。特别是对于 DenseNet,它的推理速度很慢。减少参数大小/FLOPs 的目的不是为了减少推理时间吗?这些优化是否还有另一个现实世界的原因,例如使用的能源可能更少?
解决方案
总体推理时间与每个参数/FLOPs 训练效率之间存在差异。在训练中具有较低的参数/FLOP 并不能保证更高的推理速度。因为整体推理取决于架构和预测的计算方式。
推荐阅读
- python - 在 python 控制台中自动突出显示一个字母/单词
- python - 条件减日期
- c++ - 返回类型重载运算符
- c# - 全局模型不存在添加方法
- javascript - 如何更改 Semantic-UI React 的选项卡标题宽度(垂直选项卡)
- angular - 部署在 Intranet IIS 10 上的 Angular 6 客户端应用程序始终返回错误 0
- javascript - 将 ActiveDirectory Javascript 代码集成到 React
- python - 乘以继承自 QWidget 和另一个基类?
- node.js - Lambda 函数未返回对 Alexa 技能的响应
- r - 文件上传后更新 checkboxGroupInput() 选项