gpt4 book ai didi

machine-learning - 什么时候应该使用支持向量机而不是人工神经网络?

转载 作者:行者123 更新时间:2023-11-30 08:20:26 24 4
gpt4 key购买 nike

我知道SVM被认为是“ANN杀手”,因为它们会自动选择表示形式的复杂性并找到全局最优值(有关某些SVM的赞扬说法,请参见here)。

但是,在这里我还不清楚-所有这些优势的主张是否仅适用于两级决策问题的情况,还是会更进一步? (我假设它们适用于非线性可分离类,否则没人会在意)

因此,我想清除一些案例的样本:

  • SVM是否比具有许多类的ANN更好?
  • 在线设置中的
  • 在强化学习之类的半监督情况下如何?
  • 是否有更好的无监督SVM版本?

  • 我不希望有人回答所有这些lil'子问题,而是为实践中SVM优于通用的ANN等效项(例如FFBP,递归BP,Boltzmann机器,SOM等)提供一些一般性界限,并且最好在理论上也是如此。

    最佳答案

    在许多类上,SVM是否比ANN更好? 您可能是在指这样一个事实,即SVM本质上是一类或两类分类器。的确如此,并且没有办法修改SVM算法来分类两个以上的类。

    SVM的基本特征是分离的最大边距超平面,其位置是通过使其与支持 vector 的距离最大来确定的。然而,SVM通常被用于多类分类,这是通过围绕多个SVM分类器的处理包装来完成的,这些分类器以“一对多”模式工作-即,将训练数据显示给对这些实例进行分类的第一个SVM为“I类”或“非I类”。然后,将第二类中的数据显示给第二个SVM,将其分类为“II类”或“非II类”,依此类推。实际上,这很好。因此,正如您所期望的,与其他分类器相比,SVM的优越分辨率不仅限于两类数据。

    据我所知,文献报道的研究证实了这一点,例如,在题为标题的论文Sex with Support Vector Machines中,与SVM相比,报道了SVM的性别识别(男性/女性)分辨率明显好于12平方像素图像。一组传统的线性分类器; SVM也胜过RBF NN和大型集成RBF NN。但是似乎有很多类似的证据表明SVM在多类问题中的优越性能:例如,SVM在protein-fold recognitiontime-series forecasting中的性能优于NN。

    从过去十年左右的时间里阅读这些文献给我的印象是,大多数精心设计的研究都是由熟练配置和使用这两种技术的人员使用,并且使用足以抵抗分类的数据来引起分辨率方面的有意义的差异,报告了SVM相对于NN的优越性能。但是,正如您的问题所暗示的那样,性能差异在某种程度上似乎是特定于 Realm 的。

    例如,在阿拉伯文字中,NN在作者识别的comparative study中胜过SVM;在比较信用评级预测的study中,两个分类器在分辨率上没有明显的区别。在高能粒子分类的study中报告了类似的结果。

    我从学术文献中不止一个source中获悉,随着训练数据量的减少,SVM优于NN。

    最后,可以从这些比较研究的结果中得出结论的程度很有限。例如,在一项比较SVM和NN在时间序列预测中的准确性的研究中,研究者reported认为SVM确实优于传统的(在分层节点上进行反向传播)NN,但是SVM的性能与传统NN的性能大致相同。 RBF(径向基函数)NN。

    [SVM是否比ANN更好? SVM不在在线设置中使用(即增量训练)。 SVM的本质是分离的超平面,其位置由少量支持 vector 确定。因此,原则上,即使单个附加数据点也可以显着影响此超平面的位置。

    在强化学习之类的半监督情况下如何? 直到OP对这个答案发表评论之前,我都不知道以这种方式使用的神经网络或SVM,但是他们知道。

    SVM中使用最广泛的半监督变体称为Transductive SVM(TSVM),首先由 Vladimir Vapnick (发现/发明了传统SVM的人)提到。除了所谓的技术外,我对这种技术几乎一无所知,并且遵循转导原理(大致是横向推理-即从训练数据到测试数据的推理)。显然,TSV是text classification Realm 中的首选技术。

    是否有更好的无监督SVM版本? 我认为SVM不适合无监督学习。分离基于支持 vector 确定的最大余量超平面的位置。这很容易是我自己有限的理解,但是如果这些支持 vector 未标记(即,如果您事先不知道要分离的内容),我将看不到会发生什么。无监督算法的一个关键用例是没有标签的数据或有标签的数据,并且这种情况极不平衡。例如在线欺诈;在这里,您的训练数据中可能只有几个标记为“欺诈性帐户”的数据点(通常准确性有问题),而其余的99%以上标记为“非欺诈”。在这种情况下,一类分类器(SVM的典型配置)是一个不错的选择。特别是,训练数据由标记为“非欺诈”和“不合格”的实例(或其他一些标签来表明它们不在类(class)中)组成,换句话说,是“在决策边界内”和“在决策边界外” 。”

    最后,我想提一提的是,在“发现” 20年后,SVM是ML库中根深蒂固的成员。实际上,与其他最新分类器相比,始终如一的出色分辨率已得到充分证明。

    他们的血统既是其在众多严格控制的研究中记录的卓越性能的功能,也是其概念上的优雅。考虑到后一点,考虑到多层感知器(MLP)通常是出色的分类器,但它们是由数值优化例程驱动的,该例程在实践中很少会找到全局最小值。此外,该解决方案没有概念意义。另一方面,构建SVM分类器的核心数字优化实际上确实找到了全局最小值。更重要的是,该解决方案是实际的决策边界。

    不过,我认为SVM的声誉在过去几年中有所下降。

    我怀疑的主要原因是NetFlix竞争。 NetFlix强调了矩阵分解的基本技术的分辨能力,甚至更加强调了组合分类器的能力。人们在NetFlix之前很早就组合了分类器,但更多地将其作为一种偶然性技术,而不是将分类器设计作为一种属性。此外,许多组合分类器的技术非常易于理解和实现。相比之下,SVM不仅很难编码(我认为,这是迄今为止在代码中实现的最困难的ML算法),而且也难以配置和实现为预编译的库-例如,必须选择内核,结果对如何重新缩放/标准化数据等非常敏感。

    关于machine-learning - 什么时候应该使用支持向量机而不是人工神经网络?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/6699222/

    24 4 0
    Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
    广告合作:1813099741@qq.com 6ren.com