gpt4 book ai didi

machine-learning - Keras:为什么观察到的批量大小与指定的批量大小不匹配?

转载 作者:行者123 更新时间:2023-11-30 09:10:01 25 4
gpt4 key购买 nike

我通过在代码中执行此操作来指定批量大小为 500:

model.fit(x_train, y_train, validation_data=(x_test, y_test), nb_epoch=100, batch_size=500, verbose=1)

当我运行代码时,第一个批处理大小为 500,之后的批处理大小约为 5000 甚至更大,为什么会发生这种情况?

我认为批量大小较大的原因是模型似乎从第 500 行到第 6000 行,即 5500 行。

Epoch 100/100
500/31016 [..............................] - ETA: 0s - loss: 0.1659 - acc: 0.7900
6000/31016 [====>.........................] - ETA: 0s - loss: 0.1679 - acc: 0.7865
11500/31016 [==========>...................] - ETA: 0s - loss: 0.1688 - acc: 0.7850
17000/31016 [===============>..............] - ETA: 0s - loss: 0.1692 - acc: 0.7842
23000/31016 [=====================>........] - ETA: 0s - loss: 0.1694 - acc: 0.7839
29000/31016 [===========================>..] - ETA: 0s - loss: 0.1693 - acc: 0.7841
31016/31016 [==============================] - 0s - loss: 0.1693 - acc: 0.7841 - val_loss: nan - val_acc: 0.6799

最佳答案

这真是一个有趣的问题。负责显示进度条的代码部分是一个名为 progbar 的实用程序,它的定义为 here 。它接受最小视觉进度更新间隔作为参数,默认设置为 0.01 秒。在 fit 计算期间打印进度条时也会使用此默认值,这可能是这种奇怪行为背后的原因。

关于machine-learning - Keras:为什么观察到的批量大小与指定的批量大小不匹配?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/41944660/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com