gpt4 book ai didi

python - SVM 的数据太多?

转载 作者:行者123 更新时间:2023-12-01 03:47:48 25 4
gpt4 key购买 nike

因此,我在一个包含大约 120 个特征和 10,000 个观察值的数据帧上运行来自 sklearn 的 SVM 分类器(具有线性内核和假概率)。该程序需要几个小时才能运行,并且由于超出计算限制而不断崩溃。只是想知道这个数据框是否太大?

最佳答案

总之,这根本不算太大。线性支持向量机可以进一步扩展。另一方面,libSVC 库则不能。好消息是,即使在 scikit-learn 中,你也有大规模的 svm 实现 - LinearSVC,它基于 liblinear 。您还可以使用 SGD(也可在 scikitlearn 中使用)来解决它,它也可以针对更大的数据集进行收敛。

关于python - SVM 的数据太多?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/38724623/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com