gpt4 book ai didi

r - 对于 svmpath 一口气需要这么多内存我该怎么办?

转载 作者:行者123 更新时间:2023-12-02 08:20:08 25 4
gpt4 key购买 nike

我正在尝试 svmpath包,它应该为经过训练的 SVM 找到最佳超参数,而不需要对不同的数据子集进行多次运行。更重要的是,它的计算复杂度应该较低(根据其 docs )。

但是,它似乎一次需要大量内存。

最小工作示例:

library(data.table)
library(svmpath)
# Loaded svmpath 0.953

features <- data.table(matrix(runif(100000*16),ncol=16))
labels <- (runif(100000) > 0.7)
svmpath(x=features,y=labels)
# Error in x %*% t(y) : requires numeric/complex matrix/vector arguments
svmpath(x=as.matrix(features),y=labels)
# Error: cannot allocate vector of size 74.5 Gb

library(kernlab)
ksvm(as.matrix(features),y=labels,kernel=vanilla)
# runs

检查训练函数仅显示一行可能很大的内容,Kscript <- K * outer(y, y) 。事实上,这似乎是罪魁祸首:runif(100000) %o% runif(100000)产生相同的错误。

是否有任何易于在 R 中实现的快速修复?

最佳答案

显然,它没有找到最佳的C(成本)值。但是,它列出了您应该按顺序尝试的所有 C 值使用 N 折交叉验证或测试数据集找到最好的一个。

关于r - 对于 svmpath 一口气需要这么多内存我该怎么办?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/24348065/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com