tensorflow - 可以根据 Keras Tuner 中的模型大小调整批量大小的搜索空间吗?
问题描述
我使用的 Keras 与此处的端到端示例类似 - https://keras-team.github.io/keras-tuner/tutorials/subclass-tuner/
生成的某些模型比其他模型大得多,并且较大的模型会导致 OOM 错误,从而停止调整。
我知道我可以设置一个 max_model_size (https://github.com/keras-team/keras-tuner/issues/175)。但不是限制模型大小,调谐器是否可以根据模型的大小选择最大批量大小,或者跳过对于内存来说太大的批量大小?
解决方案
我不确定这是否适用于批量大小,但通常您可以定义父(超)参数。只有在选定的条件下,您的“子”参数才会被定义。
hp_number_of_layers = hp.Int('number_of_layers', min_value = 4, max_value = 10, step = 2, default=6)
hp_batch_size = hp.Int('batch_size', min_value = 4, max_value = 8, step = 4, default=4, parent_name='number_of_layers', parent_values=[6,8])
推荐阅读
- javascript - ajax调用成功后将ajax响应数据传递到另一个页面
- vue.js - 折叠所有列表并仅展开 vuetify 中的选定列表
- python - 原始图像 Python 4 尺寸
- sql - SQL 中按 WEEK 分组的 SELECT 数据
- flowable - 如何在 `flowable-design` 中更改 `admin` 帐户的密码以发布应用程序?
- c# - 从 .NET Core 调用 Rest API
- ignite - 无法在 Apache Ignite 的 Web 控制台代理中获取集群和节点详细信息
- css - :first-child 样式未在 Vue 组件中应用
- php - 用php清除一个txt文件
- asp.net-core - 为什么使用 AsNoTracking 时内存中的 SQLite 返回不同的结果?