gpt4 book ai didi

python-3.x - 当数据量很大时将数据拟合到机器学习keras模型中

转载 作者:行者123 更新时间:2023-11-30 08:52:01 30 4
gpt4 key购买 nike

在使用 keras 的机器学习教程中,训练机器学习模型的代码就是这种典型的单行代码。

model.fit(X_train, 
Y_train,
nb_epoch=5,
batch_size = 128,
verbose=1,
validation_split=0.1)

当训练数据X_trainY_train很小时,这似乎很容易。 X_trainY_train 是 numpy ndarray。在实际情况中,训练数据可能达到千兆字节,这可能太大而无法装入计算机的 RAM 中。

当训练数据太大时,如何将数据发送到model.fit()

最佳答案

Keras 中有一个简单的解决方案。您可以简单地使用 python 生成器,其中数据是延迟加载的。如果您有图像,您还可以使用 ImageDataGenerator。

def generate_data(x, y, batch_size):    
while True:
batch = []
for b in range(batch_size):
batch.append(myDataSlice)

yield np.array(batch )

model.fit_generator(
generator=generate_data(x, y, batch_size),
steps_per_epoch=num_batches,
validation_data=list_batch_generator(x_val, y_val, batch_size),
validation_steps=num_batches_test)

关于python-3.x - 当数据量很大时将数据拟合到机器学习keras模型中,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/51894611/

30 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com