首页 > 解决方案 > 当数据量很大时,将数据拟合到机器学习 keras 模型中

问题描述

在使用 keras 的机器学习教程中,训练机器学习模型的代码就是这种典型的单行代码。

model.fit(X_train, 
          Y_train, 
          nb_epoch=5, 
          batch_size = 128, 
          verbose=1, 
          validation_split=0.1)

当训练数据较小时X_train,这似乎很容易。并且是 numpy ndarrays。在实际情况下,训练数据可能会达到千兆字节,这可能太大而无法放入计算机的 RAM 中。Y_trainX_trainY_train

model.fit()当训练数据太大时如何发送数据?

标签: python-3.xnumpymachine-learningkerasnumpy-ndarray

解决方案


Keras 有一个简单的解决方案。您可以简单地使用 python 生成器,其中您的数据是延迟加载的。如果你有图像,你也可以使用 ImageDataGenerator。

def generate_data(x, y, batch_size):    
    while True:
        batch = []
        for b in range(batch_size):
           batch.append(myDataSlice)

        yield np.array(batch )

model.fit_generator(
generator=generate_data(x, y, batch_size),
steps_per_epoch=num_batches, 
validation_data=list_batch_generator(x_val, y_val, batch_size), 
validation_steps=num_batches_test)

推荐阅读