tensorflow - 如何在分布式 Tensorflow 中为每个工作人员创建局部变量?
问题描述
现在我正在尝试使用 Estimator 创建一个局部变量,如下所示:
local_step = tf.get_variable(name='local_step', initializer=tf.constant(0), trainable=False)
并希望优化器在 tf.estimator.ModeKeys.TRAIN 模式下每次更新后都能加 1。但我发现所有工作人员都将共享相同的 local_step 并更新其值(就像 global_step 变量一样)。是否可以在每个工人上创建一个局部变量?例如,worker 0 上的 local_step_0 和 worker 1 上的 local_step_1,则本地变量将用作其自己的 worker 的计步器。
解决方案
推荐阅读
- javascript - Datatables.net rowreorder issue with internet explorer
- python - (discord.py)我的机器人的 whois 命令也显示了用户的角色,将“@everyone”显示为“@@everyone”我该如何解决这个问题
- gatling - 如何在加特林响应中命名检查
- python - 当变量调用函数并且函数包含变量时,如何从变量调用函数?
- javascript - 使用 Moment 和 React JS 格式化日期和时间
- spring - 在 Rest API 中定义端点的最佳约定是什么?
- angular - 如何在 Angular SSR 中获取 BASE_URL?
- javascript - 根据子子集属性从 REST API 获取数据 - 邮递员
- python - 是否有任何特殊输入可以破坏 Python 3 中的 input() 函数?
- ruby - 将函数存储在哈希中键的值中