- android - 多次调用 OnPrimaryClipChangedListener
- android - 无法更新 RecyclerView 中的 TextView 字段
- android.database.CursorIndexOutOfBoundsException : Index 0 requested, 光标大小为 0
- android - 使用 AppCompat 时,我们是否需要明确指定其 UI 组件(Spinner、EditText)颜色
我知道,对此有多个问题,但没有一个是针对我的特定问题的。
我将简化我的问题以使其更清楚。假设我有来自英语文档的多个句子,我想使用一个类 svm(在 libsvm 中)对它们进行分类,以便之后能够看到异常情况(例如德语句子)。
对于训练:我只有一个类的样本(假设其他类事先不存在)。我提取了所有 3-gram(因此特征空间最多包含 16777216 个不同的特征)并将它们保存为 libsvm 格式(标签=1,以防万一)
现在我想估计我的参数。我尝试通过附加参数来使用 grid.py
,但是,运行时对于 rbf 内核来说太大了。所以我尝试使用线性内核(因此,可以更改 grid.py
以便仅使用一个 gamma 值,因为它对线性内核无关紧要)。
无论如何,最小的 c
grid.py 测试将显示为最佳解决方案(-c 对线性内核有影响吗?)。
此外,无论我如何更改 -n
(nu) 值,每次得分之间的相同关系都会实现(即使支持向量的数量发生变化)。使用 python 实现收集分数。 (分数之间的关系意味着,例如,起初它们是 -1 和 -2,我更改 nu
然后它们是 -0.5 和 -1,所以如果我对它们进行排序,总是出现相同的顺序,如本例所示):
# python2
from sklearn.metrics import roc_curve, auc
import matplotlib.pyplot as plt
from svmutil import *
y,x = svm_read_problem("/tmp/english-3-grams.libsvm") # 5000 sentence samples
ym,xm = svm_read_problem("/tmp/german-3-grams.libsvm") # 50 sentence samples
m = svm_train(y,x,"-s 2 -t 2 -n 0.5");
# do the prediction in one or two steps, here is one step:
p_l, p_a, p_v = svm_predict(y[:100]+ym[:100],x[:100]+xm[:100],m)
# p_v are our scores.
# let's plot a roc curve
roc_ret = roc_curve([1]*100+[-1]*100,p_v)
plt.plot(roc_ret[0],roc_ret[1])
plt.show()
在这里,每次都获得完全相同的 roc 曲线(即使 -n
不同)。即使只有 1 个支持向量,也会显示相同的曲线。
因此,我的问题(假设每次训练最多 50000 个样本):- 为什么 -n
没有改变任何一类培训过程?- 我需要为一级 svm 更改哪些参数?- 线性内核是最好的方法吗? (+ 关于运行时)和 rbf 内核参数网格搜索需要很长时间才能处理如此大的数据集- liblinear 没有被使用,因为我想做异常检测 = 一个类 svm
最好的问候,多种
最佳答案
性能影响是 16777216 个元素的巨大特征空间的结果。这导致德语句子等元素的向量非常稀疏。
Yang 和 Petersen 的一项研究,A Comparative Study on Feature Selection in Text Categorization表明,积极的特征选择并不一定会降低分类准确性。我在对(医学)德语文本文档进行文本分类时取得了类似的结果。
如评论中所述,LIBLINEAR
很快,因为它是为此类稀疏数据构建的。然而,您最终得到的是一个线性分类器,它既有缺点也有优点。
我建议采用以下策略:
使用 N
结合交叉验证逐步增加 N
并为您的数据找到最佳加工 N
。
使用在 2 中找到的 N
进行网格搜索。
使用 3. 中找到的最佳匹配参数和 2. 中找到的 N
训练您的分类器
关于python - 通过 libsvm 对 n-gram 进行线性一级 SVM 训练的参数估计,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/41718108/
我想计算或至少估计放置在相机/kinect 前面的物体的体积。知道我应该从哪里开始吗?你推荐 OpenCV 吗?您是否推荐任何其他技术,例如声纳/激光? 最佳答案 一直在用 OpenCV 2.3 编写
我想知道 MySQL 对表中总行数的 TABLE_ROWS 估计值是否有限制或保证误差范围? 最佳答案 如果它与 SHOW TABLE STATUS 发出的数字类似,则至少会偏差 +/- 40%,有时
我们都曾 mock 过“还剩 X 分钟”的对话框,它似乎过于简单,但我们如何改进它呢? 实际上,输入是截至当前时间的一组下载速度,我们需要使用它来估计完成时间,也许带有确定性指示,例如使用一些 Y%
我们都曾 mock 过“还剩 X 分钟”的对话框,它似乎过于简单,但我们如何改进它呢? 实际上,输入是截至当前时间的一组下载速度,我们需要使用它来估计完成时间,也许带有确定性指示,例如使用一些 Y%
我的理解是 glmnet 采用矩阵,其中每一列都是一个解释变量。 我有一个包含约 10 个解释变量的数据框(其中一些是因子) 我怎样才能使用诸如 y~(x1*x2*x3)+(x4*x5)+x6 之类的
有没有办法估计运行 R 的时间?命令而不实际运行它或仅部分运行命令? 我知道 system.time()存在但需要运行整个命令然后它给出了花费的时间。 最佳答案 还有http://www.ats.uc
在尝试使用 libGD 在 PHP 中调整图像大小之前,我想检查是否有足够的内存来执行操作,因为“内存不足”会完全杀死 PHP 进程并且无法被捕获。 我的想法是,原始图像和新图像中的每个像素 (RGB
我有一些 VHDL 文件,我可以在 Debian 上用 ghdl 编译它们。一些人已将相同的文件改编为 ASIC 实现。算法有一个“大面积”实现和一个“紧凑”实现。我想编写更多实现,但要评估它们,我需
我在 Amazon EC2 上使用 RStudio 0.97.320 (R 2.15.3)。我的数据框有 20 万行和 12 列。 我正在尝试使用大约 1500 个参数来拟合逻辑回归。 R 使用 7%
我目前正在估算一个新项目。假设只有一名开发人员在处理它,我的高水平估计是 25 周。 实际上会有两个开发人员并行工作。减少估计的什么因素是合理的? (我意识到不会是0.5) 最佳答案 根据原始开发人员
我试图更好地理解创建 Postgres 索引所涉及的权衡。作为其中的一部分,我很想了解通常使用多少空间索引。我已通读 the docs ,但找不到这方面的任何信息。我一直在做自己的小实验来创建表和索引
我对 Azure 平台相当陌生,需要一些有关 Azure 搜索服务成本估算的帮助。每个月我们都会有大约 500GB 的文件被放入 Azure Blob 存储中。我们希望仅根据文件名使用 Azure 搜
我正在尝试最大化横截面面板数据中的数据点数量。我的矩阵结构如下,y 轴为年份,x 轴为国家/地区: A B C D 2000 NA 50 NA
如果我有两个时间序列,例如: t f1 #[1] 0.25 #> f2 #[1] 0.25 f phase_difference #[1] 0.5 这意味着时间序列相移 pi/2,因为它们应该根据
我对 Azure 平台相当陌生,需要一些有关 Azure 搜索服务成本估算的帮助。每个月我们都会有大约 500GB 的文件被放入 Azure Blob 存储中。我们希望仅根据文件名使用 Azure 搜
我使用了以下 R 包:mice、mitools 和 pROC。 基本设计:3 个预测变量度量,在 n~1,000 的数据缺失率在 5% 到 70% 之间。 1 个二进制目标结果变量。 分析目标:确定
如何使用 lsmeans 来估计两个成对对比的差异?例如——想象一个连续的 dv 和两个因子预测变量 library(lsmeans) library(tidyverse) dat % fac
我制作了一个使用 BigDecimal 的科学计算器。它有一个特别消耗资源的功能:阶乘。现在,输入任何数字都会启动计算。根据运行此代码的设备,答案会在不同的时间显示。输入像 50000 这样的巨大值!
我已经发出了 sympy 命令来求解某个方程或另一个方程。现在已经好几天了,我不知道什么时候能完成。 我可以使用 sympy 来记录调用 .solvers.solve 的进度吗?如果不是,我如何估计
最近我得到了一些 error C6020: Constant register limit exceeded at variable; more than 1024 registers needed
我是一名优秀的程序员,十分优秀!