首页 > 解决方案 > 为什么 2070 Max-Q 训练神经网络的时间比 GTX 960m 长?

问题描述

我有两台笔记本电脑,都装有 Windows 10,用于工作:

  1. 微星 GE70:i7 4720、12 GB 内存、GTX 960m 2GB、258 GB 固态硬盘。
  2. 戴尔 G7:i7 9750、32 GB 内存、RTX 2070 Max-Q 8Gb、500 GB SSD。

在官方 TensorFlow 页面之后,我在两台笔记本电脑上都进行了 TensorFlow 的“镜像”安装。

在两台笔记本电脑中,我都安装了 Python 3.6.8、TensorFlow 2.2、CUDA 10.1、cuDNN 7.6 和 456.71 Nvidia 驱动程序版本。当我在 CMD 中运行以下行时,我可以看到两个 GPU 对 TensorFlow 都是可见的并且可以使用。

python -c "import tensorflow as tf;print(tf.reduce_sum(tf.random.normal([1000, 1000])))

微星 960m

戴尔 2070 Max-Q

然后,当我在两台笔记本电脑上训练相同的神经网络时,我可以看到 MSI 每个 epoch 需要 7 分钟,而 Dell G7 每个 epoch 需要将近 1 小时。为什么与 960m 相比,GPU 2070 Max-Q 训练神经网络需要更长的时间?戴尔 G7 有一些我看不到的问题?

这是NN的结构:

modelo=Sequential()

modelo.add(Bidirectional(LSTM(units=na, return_sequences=True),input_shape=dim_entrada))
modelo.add(Dropout(0.25))
modelo.add(Bidirectional(LSTM(units=na)))
modelo.add(Dropout(0.25))
modelo.add(Dense(units=3))

opt = tf.optimizers.Adam(learning_rate=0.0015)
modelo.compile(optimizer=opt, loss='mse', metrics=['accuracy'])

modelo.fit(X_train,Y_train,epochs=20,batch_size=32,validation_data=(X_validacion_imu12,Y_validacion_vi12))

标签: tensorflow

解决方案


我发现了问题。我不知道为什么,但戴尔 G7 必须插上电源。我认为这是一个电源选项,如果未插入 GPU,它会阻止使用它。


推荐阅读