gpt4 book ai didi

python - Tensorflow:batch_size 取决于什么?

转载 作者:行者123 更新时间:2023-12-04 01:30:37 24 4
gpt4 key购买 nike

我是 tensorflow 的新手,我试图了解什么大小应该是 batch

我的数据形状 (119396, 12955)。如何为我的数据选择最佳 batch_sizebatch_size 与数据形状或使用算法有什么关系?

最佳答案

批量大小是您在模型中一次引入的输入数据值的数量。训练时很重要,测试时次要。对于标准的机器学习/深度学习算法,选择批量大小将对几个方面产生影响:

  • batch size 越大,一次输入模型的数据就越多。因此,RAM 内存消耗 将几乎 批量大小 成线性关系,并且根据您的系统规范和大小,总会有一个限制你的模型将溢出你的模型。
  • 批量大小越大,越快您将循环您的数据集 N 次以执行训练。
  • 更大的批量大小减慢您的模型训练速度,这意味着您的模型需要更长的时间才能获得一次更新因为该更新取决于更多数据。
  • 更大的batch size 将有更多的数据用于对模型的下一次更新进行平均,因此训练应该更平滑:更平滑的训练/测试精度曲线。。<

请注意,数据大小仅与批量大小有关,因为数据越大,最大批量大小变得越小(限制集通过内存)。 模型的大小也有类似的关系。

在实践中,您应该遵循“2 的幂,越大越好,前提是批处理适合您的 (GPU) 内存”。有关更深入的详细信息,请查看 https://stackoverflow.com/a/46655895/9670056 .

关于python - Tensorflow:batch_size 取决于什么?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/51768594/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com