gpt4 book ai didi

java - 如何使用 Encog Java 训练巨大的集合?

转载 作者:行者123 更新时间:2023-12-01 10:59:14 25 4
gpt4 key购买 nike

我有大量数据需要训练(千兆字节的数据)。

有什么办法可以根据需要加载和卸载吗?

是否最好将其分成小块(例如每个 100 MB),然后训练每个子集,直到误差消失。完成后,重新开始,直到所有错误都足够好为止?

谢谢

最佳答案

那么,您是否尝试过使用所有数据进行训练时会发生什么?

应该可以使用 encogs BufferedNeuralDataSet

This class is not memory based, so very long files can be used, without running out of memory. This dataset uses a Encog binary training file as a buffer. When used with a slower access dataset, such as CSV, XML or SQL, where parsing must occur, this dataset can be used to load from the slower dataset and train at much higher speeds.

此外,我认为仅使用小子集进行训练不会获得良好的结果,因为您降低了第一个子集的误差,然后使用可能包含非常不同的数据的第二个子集重新训练,从而训练网络错误对第一组不利,依此类推......

关于java - 如何使用 Encog Java 训练巨大的集合?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/33454052/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com