python - 原始 Python 'for' 循环是否会降低 TensorFlow 的训练性能
问题描述
当只有 1 个输入(输入到占位符)时,使用 tf.data.Dataset 是最佳的:
Data = tf.data.Dataset.from_tensor_slices((Inp,Exp));
Data = Data.repeat().shuffle(Dsize).batch(Bsize);
Steps = 1000;
Epochs = round(Steps/(Dsize/Bsize));
...
Model.fit(Data, epochs=Epochs, steps_per_epoch=round(Dsize/Bsize));
然而,当有多个输入时(馈送到多个占位符),Keras 不允许馈送多个数据集,因此原始 Python 'for' 循环用于馈送批次:
Data = tf.data.Dataset.from_tensor_slices((Inp1,Inp2,Exp));
Data = Data.repeat().shuffle(Dsize).batch(Bsize);
Iter = iter(Data);
Steps = 1000;
...
for I in range(Steps):
X1,X2,Y = next(Iter);
Model.fit(x=[X1,X2], y=Y);
因为 Python 是解释器并在字节码上运行,所以“for”循环应该很慢。恐怕使用自定义的“for”循环会降低训练性能。这是真的吗?
解决方案
您可以调整 from_tensor_slices 以使其保持 2 个元素的元组,并且第一个元素本身就是一个元组。
工作示例:
import numpy as np
import tensorflow as tf
input_1 = tf.keras.Input(shape=(10,))
dense_1 = tf.keras.layers.Dense(4)(input_1)
input_2 = tf.keras.Input(shape=(10,))
dense_2 = tf.keras.layers.Dense(4)(input_2)
x = tf.keras.layers.Concatenate()([dense_1, dense_2])
y = tf.keras.layers.Dense(2)(x)
model = tf.keras.Model([input_1, input_2], y)
model.summary()
dataset_size = 16
batch_size = 4
input_1_values = np.random.random((dataset_size, 10))
input_2_values = np.random.random((dataset_size, 10))
output_values = np.random.random((dataset_size, 2))
dataset = tf.data.Dataset.from_tensor_slices(((input_1_values, input_1_values), output_values))
dataset = dataset.repeat().shuffle(buffer_size=4).batch(batch_size)
steps = 10
model.compile(optimizer="adam", loss="binary_crossentropy")
model.fit(dataset, epochs=1, steps_per_epoch=steps)
将数据集合并为单个数据集的另一种选择也可以是使用zip 方法
推荐阅读
- flutter - 如何在颤动中添加不太和底部的应用栏
- jquery - 使用jQuery从输入模糊的下拉列表中选择项目
- python - 使用不同长度的 DNA 字符串为 keras 准备数据
- arrays - Excel 数组和小型 VBA 循环与不带数组的大型 VBA 循环的性能
- python-3.x - 如何使用 PyTorch 从本地目录导入 MNIST 数据集
- wpf - datagride Mvvm 从外部字段更新和插入
- python - 如何在一定次数后阻止代码重复?
- angular - 角度插值创建文字内容
- javascript - 渲染组件时触发的 onClick 属性反应
- python - Python Pandas read_csv dtype 无法将“string”转换为“float64”