首页 > 解决方案 > 原始 Python 'for' 循环是否会降低 TensorFlow 的训练性能

问题描述

当只有 1 个输入(输入到占位符)时,使用 tf.data.Dataset 是最佳的:

Data = tf.data.Dataset.from_tensor_slices((Inp,Exp));
Data = Data.repeat().shuffle(Dsize).batch(Bsize);

Steps  = 1000;
Epochs = round(Steps/(Dsize/Bsize));

...

Model.fit(Data, epochs=Epochs, steps_per_epoch=round(Dsize/Bsize));

然而,当有多个输入时(馈送到多个占位符),Keras 不允许馈送多个数据集,因此原始 Python 'for' 循环用于馈送批次:

Data = tf.data.Dataset.from_tensor_slices((Inp1,Inp2,Exp));
Data = Data.repeat().shuffle(Dsize).batch(Bsize);
Iter = iter(Data);

Steps = 1000;

...
for I in range(Steps):
  X1,X2,Y = next(Iter);
  Model.fit(x=[X1,X2], y=Y);

因为 Python 是解释器并在字节码上运行,所以“for”循环应该很慢。恐怕使用自定义的“for”循环会降低训练性能。这是真的吗?

标签: pythonperformancetensorflowfor-loopbytecode

解决方案


您可以调整 from_tensor_slices 以使其保持 2 个元素的元组,并且第一个元素本身就是一个元组。

工作示例:

import numpy as np
import tensorflow as tf


input_1 = tf.keras.Input(shape=(10,))
dense_1 = tf.keras.layers.Dense(4)(input_1)
input_2 = tf.keras.Input(shape=(10,))
dense_2 = tf.keras.layers.Dense(4)(input_2)
x = tf.keras.layers.Concatenate()([dense_1, dense_2])
y = tf.keras.layers.Dense(2)(x)

model = tf.keras.Model([input_1, input_2], y)
model.summary()

dataset_size = 16
batch_size = 4
input_1_values = np.random.random((dataset_size, 10))
input_2_values = np.random.random((dataset_size, 10))
output_values = np.random.random((dataset_size, 2))

dataset = tf.data.Dataset.from_tensor_slices(((input_1_values, input_1_values), output_values))
dataset = dataset.repeat().shuffle(buffer_size=4).batch(batch_size)

steps = 10
model.compile(optimizer="adam", loss="binary_crossentropy")
model.fit(dataset, epochs=1, steps_per_epoch=steps)

将数据集合并为单个数据集的另一种选择也可以是使用zip 方法


推荐阅读