gpt4 book ai didi

neural-network - 用于映射大型二进制输入的深度学习

转载 作者:行者123 更新时间:2023-12-04 19:39:54 26 4
gpt4 key购买 nike

这个问题可能过于宽泛,但我会尽量使每个子主题都尽可能具体。
我的设置:
大型二进制输入(每个样本 2-4 KB)(无图像)
相同大小的大二进制输出
我的目标:使用深度学习找到从我的二进制输入到二进制输出的映射函数。
我已经生成了一个大型训练集(> 1'000'000 个样本),并且可以轻松生成更多。
在我对神经网络和深度学习的(公认有限的)知识中,我的计划是构建一个具有 2000 或 4000 个输入节点、相同数量的输出节点并尝试不同数量的隐藏层的网络。
然后在我的数据集上训练网络(如有必要,等待数周),并检查输入和输出之间是否存在相关性。

Would it be better to input my binary data as single bits into the net, or as larger entities (like 16 bits at a time, etc)?


对于逐位输入:
我尝试过“神经设计器”,但是当我尝试加载我的数据集时软件崩溃(即使是 6 行的小数据集),我不得不编辑项目保存文件以设置输入和目标属性。然后它再次崩溃。
我尝试过 OpenNN,但它尝试分配大小为 (hidden_​​layers * 输入节点) ^ 2 的矩阵,这当然失败了(抱歉,没有 117GB 的 RAM 可用)。

Is there a suitable open-source framework available for this kind ofbinary mapping function regression? Do I have to implement my own?

Is Deep learning the right approach?


有没有人有过这类任务的经验?
遗憾的是,我找不到任何关于深度学习 + 二进制映射的论文。
如果需要,我很乐意添加更多信息。
感谢您为菜鸟提供指导。

最佳答案

您有一个包含成对二进制值向量的数据集,最大长度为 4,000 位。您想在对之间创建映射函数。从表面上看,这似乎并没有什么不合理——想象一下带有二进制像素的 64x64 图像——它只包含 4,096 位数据,完全在现代神经网络的范围内。

当你处理二进制值时,那么一个多层 Restricted Boltzmann Machine看起来是个不错的选择。您向网络添加多少层实际上取决于数据的抽象级别。

你没有提到数据的来源,但我假设你希望有一个不错的相关性。假设每个位的位置是任意的并且独立于它的近邻,我会排除卷积神经网络。

一个很好的实验开源框架是 Torch - 广泛支持机器学习算法的科学计算框架。由于其 CUDA 实现,它具有利用 GPU 加速处理的额外好处。这有望避免您等待几周的结果。

如果您提供更多背景信息,那么也许我们可以找到解决方案……

关于neural-network - 用于映射大型二进制输入的深度学习,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/33556259/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com