python - TensorFlow训练,如何防止训练节点被删除
问题描述
我正在使用 TensorFlow 和 python 进行对象检测。
我想开始训练并保留一段时间并保留所有训练节点(model-cpk)。标准的 TensorFlow 训练似乎删除了节点,只保留了最后几个节点。我该如何防止呢?
如果这是问此类问题的错误地方,请原谅。如果被告知一个合适的地方,我将不得不这样做。谢谢你。
解决方案
您可以使用keep_checkpoint_max
标志来tf.estimator.RunConfig
输入model_main.py
。您可以将其设置为非常大的数字以实际保存所有检查点。您应该被警告,根据模型大小和保存频率,它可能会填满您的磁盘(并因此在训练期间崩溃)。您可以通过标志save_checkpoints_steps
或更改保存频率save_checkpoints_secs
。RunConfig
默认使用save_checkpoints_secs
,默认值为 600(10 分钟)。
推荐阅读
- c++ - 如何修复 SDL 错误:触觉设备标识符无效?
- c - C程序反转字符串,我得到写访问冲突
- python - 如何使用 fit_generator 训练具有不同序列长度的 LSTM?
- c++ - 使用 memset 和 freeaddrinfo 会导致双重释放或损坏错误
- json - 如何拒绝获取我的 firebase 数据库 json 文件,因为我想将我的用户数据保密
- c - 从另一个字符串限制字符串
- c# - 在另一个表单中调用一个表单的方法
- docker - Docker NGINX 代理自动化 + DDNS + 端口转发 + Nextcloud
- r - 向量/时间序列中的非线性压缩解压缩“x”和“y”轴
- c# - .NET 5 Blazor WASM StringFormat 货币