gpt4 book ai didi

matlab - 使用 matlab 神经网络工具箱批量训练非常大的数据集

转载 作者:行者123 更新时间:2023-11-30 09:01:59 26 4
gpt4 key购买 nike

我想使用 MATLAB 神经网络工具箱在 KTH 数据集中进行语音识别。现在我的训练数据太大了,我无法立即将它们加载到一个大矩阵中进行批量训练。我发现的一种解决方案是使用增量训练,一次适应大量数据。但据我所知,这可能会降低准确性。

我之前使用过NICO工具包。在其中,我们可以将输入作为包含训练数据的文件名。它将读取文件并进行批量训练。但我在 MATLAB 中找不到这样的选项。

有没有办法在 MATLAB 中对如此大的数据集进行批量训练?

最佳答案

我不建议对非常大的数据集进行调整。自适应学习最适合代表随时间变化的关系(数据集)的数据集。

如果您有权访问并行计算工具箱和 MATLAB 分布式计算服务器,则可以使用神经网络工具箱在多台计算机上传播计算和数据。

要增加可在特定 RAM 量内训练的数据集大小,请使用 TRAINSCG(缩放共轭梯度,它使用的内存比雅可比方法更少,或者使用 TRAINBR(贝叶斯正则化雅可比)减少内存(权衡内存空间的时间)。

假设您仍然没有足够的 RAM,一种可能的解决方案是使用具有内存减少功能的 TRAINBR 在数据的不同随机子集上训练多个网络。 TRAINBR 试图找到最简单的解决方案,但每次训练类(class)可能会找到完全不同的解决方案。在不同数据集上训练几十个(或更多)神经网络后,可以对每个网络的输出进行平均。本质上,将许多简单的解决方案组合起来可以找到复杂的关系。

请务必保留一些不用于训练任何 TRAINBR 神经网络的数据,以便可以独立测量其组合(平均)输出的通用性。

关于matlab - 使用 matlab 神经网络工具箱批量训练非常大的数据集,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/22131012/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com