首页 > 解决方案 > 如何使并行自定义层快速训练?

问题描述

我在 tensorflow 中创建了一个自定义层。我想使用我并行创建的许多自定义层。尽管我能够成功创建并行自定义层并对其进行训练,但速度非常慢。这是创建自定义并行层的示例代码。

class parallelProjective(tf.keras.layers.Layer):
    def __init__(self,num_filters):
        super(parallelProjective, self).__init__()
        self.num_filters = num_filters
        self.all_layers = [Custom_Layer(sampling_size) for i in range(self.num_filters)]
    def call(self, inputs):
        x_list = [self.all_layers[f](inputs) for f in range(self.num_filters)]
        y = Concatenate()(x_list)
        return y

如何加快并行自定义层的训练过程?

标签: tensorflowparallel-processing

解决方案


推荐阅读