tensorflow - 使用 TPUClusterResolver 时为 TPU 转储 HLO IR
问题描述
我正在通过 Google Colab 和 GCP 使用 TPU,并想转储 XLA IR。但是我在 github xla index中看到了 xla doc ,它只显示了后端是 CPU 或 GPU 的方式。
我曾尝试使用XLA_FLAGS="--xla_dump_hlo_as_text --xla_dump_to=/content/iir/" TF_XLA_FLAGS=--tf_xla_cpu_global_jit
运行以 CPU 为目标的程序并获取转储的 hlo 文件。我也尝试过capture_tpu_file
并且只能在“op_profile”页面中为每个操作员获取 ir。那么当后端是 TPU 时,有没有办法为整个程序转储 XLA IR?
谢谢!
周杰伦
解决方案
不幸的是,目前没有办法在 Cloud TPU 上转储/访问 XLA IR,因为需要在 TPU 服务器上设置 XLA_FLAGS。
推荐阅读
- r - 单个连续随机变量位于区间内的概率 [55,100]
- html - 有没有一种方法可以在没有定义数量的可能更改的情况下动态更改 css 属性
- python - IndexError:索引 x 超出轴 0 的范围,大小为 x
- node.js - 在服务器端使用 Amqplib 的 NodeJs
- python - 使用python轮询谷歌云操作
- javascript - ESP32 - ESPAsyncWebServer - server.client()?
- python - Python多处理池创建重复列表
- c# - 如何通过 MimeKit 发送电子邮件
- python - Readthedocs autodoc 工作在 pdf 但不是 html
- java - 在springboot中具有不同条件的Mongo可分页搜索