python - Tensorflow 在每个 epoch 结束时卡住了几秒钟
问题描述
我正在通过 TFRecordDataset 训练神经网络。然而,在每个 epoch 结束时,即ETA: 0s
,训练会停滞数十秒。作为参考,在大约 25GB 的数据集上完成一个 epoch 大约需要一分钟(在解析特征子集之前)。
我正在使用 Nvidia Titan RTX GPU 运行 TensorFlow 2.3.1。这是预期的行为吗?也许是由于输入管道中的预处理?该预处理是仅由 CPU 执行还是卸载到 GPU 上?谢谢!
解决方案
如果您有一个验证集并且正在使用model.fit()
,则可能是计算损失和指标所需的时间。在大多数情况下,计算 80/20 拆分的指标需要额外的 25%。
推荐阅读
- python - PyQt5 Python 3 Qline Edit 计算加/减数字
- xml - Xquery 中的空标签 - 寻址
- c++ - 如何在 Qt 中将 QLabel 从一个窗口拖到另一个窗口?
- javascript - 在 reactjs 组件上渲染多个项目
- android - 是否可以从另一个应用程序访问日志?
- python - python中的Clicker游戏不起作用
- node.js - Dialogflow 简单的授权方式
- javascript - javascript 中的正则表达式只允许数字和一个点后跟最多 2 个数字
- xml - 使用 XSLT 更新 XML 文件并为标签分配 id
- mongoose - 使用 jwt 和 mongoose 确认电子邮件时,无法将“已确认”值设置为 true