tensorflow - 如何使并行自定义层快速训练?
问题描述
我在 tensorflow 中创建了一个自定义层。我想使用我并行创建的许多自定义层。尽管我能够成功创建并行自定义层并对其进行训练,但速度非常慢。这是创建自定义并行层的示例代码。
class parallelProjective(tf.keras.layers.Layer):
def __init__(self,num_filters):
super(parallelProjective, self).__init__()
self.num_filters = num_filters
self.all_layers = [Custom_Layer(sampling_size) for i in range(self.num_filters)]
def call(self, inputs):
x_list = [self.all_layers[f](inputs) for f in range(self.num_filters)]
y = Concatenate()(x_list)
return y
如何加快并行自定义层的训练过程?
解决方案
推荐阅读
- javafx - javafx.fxml.LoadException:已指定控制器值
- sql - SQL 递归 CTE 替换语句太慢
- javascript - 解析服务器 JS SDK -> 获取类,同时获取关系对象
- google-apps-script - 如何使用脚本格式化 Google Docs 中的文本
- html - 按钮上的背景图像不显示
- python - 在两个单独的 Heroku 应用程序上代理从 React 前端到 Flask 后端的 API 请求
- python - Atom 在 macOS 上将 Python 2.7 优先于 Python 3.7
- pervasive - Pervasive Database 有调度程序吗?
- google-cloud-speech - google-cloud-speech - 如何向 Google 提供法语成绩单的反馈
- mysql - 如何按顺序执行一系列 SQL 命令?