gpt4 book ai didi

python - 拟合模型时,batch size 和 epoch 的数量应该有多大?

转载 作者:IT老高 更新时间:2023-10-28 21:40:23 25 4
gpt4 key购买 nike

我的训练集有 970 个样本,验证集有 243 个样本。

在拟合模型以优化 val_acc 时,批量大小和 epoch 数应该有多大?是否有任何基于数据输入大小的经验法则可供使用?

最佳答案

由于您的数据集非常小(约 1000 个样本),因此使用 32 的批量大小可能是安全的,这是相当标准的。除非您在数十万或数百万个观察值上进行训练,否则它不会对您的问题产生巨大影响。

要回答您关于 Batch Size 和 Epochs 的问题:

一般而言:较大的批大小会导致训练进度更快,但并不总是收敛得那么快。较小的批量训练速度较慢,但​​可以更快地收敛。这绝对取决于问题。

一般而言,模型会随着训练次数的增加而提高到一定程度。当它们收敛时,它们的准确性将开始趋于稳定。尝试 50 之类的东西,并绘制 epoch 数(x 轴)与精度(y 轴)的关系。你会看到它在哪里变平。

您的数据的类型和/或形状是什么?这些是图像,还是只是表格数据?这是一个重要的细节。

关于python - 拟合模型时,batch size 和 epoch 的数量应该有多大?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/35050753/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com