python - 图优化后,矩阵乘法之前的转置是否会自动融合?
问题描述
张量流中的tf.matmul
矩阵乘法具有参数transpose_a
,并且transpose_b
可以在矩阵乘法之前选择性地转置其参数中的一个(或两个)。这样做让操作员有可能实际上不转置输入(这可能很昂贵),而只是简单地计算结果。
另一方面,tensorflow 有一个复杂的图优化算法,它在每个节点上运行,Session.run
并查看可以在图中优化的算子。
我的问题是,在矩阵乘法被张量流自动优化之前是否发生了矩阵转置?还是我们仍然应该注意不要过度使用@
运算符并在需要时使用完整的参数tf.matmul
?
换句话说,即使例如图
tf.matmul(a, b, transpose_a=True)
和
tf.matrix_transpose(a) @ b
不同的是,在图形优化后运行时,第二个最终会转化为第一个吗?
解决方案
推荐阅读
- summernote - 如何关闭summernote编辑器焦点
- google-colaboratory - colab上的Pybullet,无法连接X服务器
- python - 如何使 MacOs Tkinter 按钮看起来像 Windows Tkinter 按钮
- typescript - 无法访问 Typescript 方法中的实例变量 | 它说变量无法访问
- vba - 难以强制 VBA 以美国/英国格式解析日期
- visual-studio-code - vscode 扩展中的可编辑虚拟文档
- python - 如何将多个 Grib2 文件从极地立体网格转换为常规网格?
- python - Backtrader 导入错误 [ImportError: cannot import name 'warnings' from 'matplotlib.dates']
- node.js - 如何将读/写流与 JSON 文件一起使用?
- javascript - 将方法 vuejs 更改为 nuxtjs