- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我目前正在进行推文情绪分析,并且有几个关于步骤的正确顺序的问题。请假设数据已经过相应的预处理和准备。所以这就是我将如何进行:
train_test_split
(80:20 比例)停止测试数据集。x_train
因为推文不是数字。在接下来的步骤中,我想确定最佳分类器。请假设那些已经导入。所以我会继续:
model = KNeighborsClassifier()
n_neighbors = range(1, 10, 2)
weights = ['uniform', 'distance']
metric = ['euclidean', 'manhattan', 'minkowski']
# define grid search
grid = dict(n_neighbors=n_neighbors, weights=weights ,metric=metric)
cv = RepeatedStratifiedKFold(n_splits=10, n_repeats=3, random_state=1)
grid_search = GridSearchCV(estimator=model, param_grid=grid, n_jobs=-1, cv=cv, scoring='accuracy',error_score=0)
grid_result = grid_search.fit(train_tf, y_train)
# summarize results
print("Best: %f using %s" % (grid_result.best_score_, grid_result.best_params_))
means = grid_result.cv_results_['mean_test_score']
stds = grid_result.cv_results_['std_test_score']
params = grid_result.cv_results_['params']
for mean, stdev, param in zip(means, stds, params):
print("%f (%f) with: %r" % (mean, stdev, param))
train_test_split()
)并对测试数据使用最佳分类器这是正确的方法还是您会建议更改某些内容(例如,单独进行交叉验证而不是在超参数化中进行)?将测试数据作为最后一步进行测试是否有意义,还是我应该提前进行以评估未知数据集的准确性?
最佳答案
有很多方法可以做到这一点,人们对此有强烈的看法,但我并不总是相信他们完全理解他们所倡导的。
TL;DR:您的方法看起来不错,而且您提出的问题很明智。
话虽如此,这里有一些事情需要考虑:
是的,这些技术中的每一种都擅长做一些特定的事情;但这并不一定意味着它们都应该属于同一管道。
首先,让我们回答这些问题:
Train-Test Split 可用于测试分类器的推理能力。换句话说,我们想知道分类器总体上的表现如何(而不是在我们用于训练的数据上)。测试部分允许我们在不使用训练部分的情况下评估我们的分类器。
Hyperparameter-Tuning 可用于评估超参数对分类器性能的影响。为了使其有意义,我们必须比较两个(或更多)模型(使用不同的超参数),但最好使用相同的训练部分进行训练(以消除选择偏差)。一旦我们知道性能最好的超参数,我们会做什么?这组超参数是否总是表现最佳?不。您会看到,由于分类的随机性,一个超参数集可能在实验 A 中效果最好,然后另一组超参数可能在实验 B 中效果最好。相反,超参数调整有助于概括何时使用哪些超参数构建分类器。
交叉验证 用于消除与构建分类器相关的一些随机性。因此,机器学习管道可能会生成一个分类器,使用 1 个测试折叠的准确率为 94%,使用另一个测试折叠的准确率为 83%。这是什么意思?这可能意味着 1 折包含简单的样本。或者它可能意味着分类器,无论出于何种原因,实际上更好。你不知道,因为它是一个黑盒子。
实际上,这有什么用?
我认为使用测试训练分割和交叉验证没有什么值(value)。我使用交叉验证并将准确性报告为 n 倍的平均值。它已经在测试我的分类器的性能。我不明白为什么进一步划分训练数据以进行另一轮训练测试验证会有帮助。使用平均值。话虽如此,我使用在交叉验证期间创建的 n 倍模型中性能最好的模型作为我的最终模型。正如我所说,它是黑盒,所以我们无法知道哪个模型最好,但在其他条件相同的情况下,您不妨使用性能最好的模型。它实际上可能更好。
超参数调整很有用,但进行大量调整可能需要很长时间。我建议在您的管道中添加超参数调整,但只测试 2 组超参数。因此,除了 1 之外,保持所有超参数不变。例如批量大小 = {64, 128}。运行它,您将能够自信地说,“哦,这有很大的不同:64 比 128 更好用!”或“好吧,那是浪费时间。无论哪种方式都没有太大区别。”如果差异很小,请忽略该超参数并尝试另一对。这样,您将慢慢地朝着最佳方向前进,而不会浪费所有时间。
在实践中,我会说将广泛的超参数调整留给学术界并采取更务实的方法。
但是,是的,您的方法看起来不错。我认为你在思考自己在做什么,这已经让你领先了一步。
关于python - 分类:推文情感分析——步骤顺序,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/62848208/
我正在使用reactjs-popup,它的 Prop 之一是contentStyle,它允许您传递css-in-js对象来设置库中内部div的样式。 但是,当我传递带有 @media 的 css 对象
在查看了一些服务/工具之后,我得出了一个结论。大多数 Text-to-Speech 工具的技术含量太高、太机械化——换句话说,就是质量差的 c 语音。 是的,最重要的是,看起来它们带有“硬编码”语音模
我正在尝试使用 Emotion.sh在我的 React 测试元素中,但我使用与 example 中相同的代码得到以下错误 需要考虑的可能有冲突的事情:1、之前用的是npm,现在用的是yarn;2. 我
通过以下链接,我有了一些想法。我想问问我是做对了还是做错了。如果我走错了路,请指导我。 链接 Using libsvm for text classification c# How to use li
以下设置不显示background-image。作为调试步骤,我尝试在 const background 中设置 background: pink,这确实有效,确认 emotion 正在正确运行。 打
我有一个 data.frame,其中包含周数 week 和文本评论 text。我想将 week 变量视为我的分组变量,并对它运行一些基本的文本分析(例如 qdap::polarity)。一些评论文本有
我正在研究 Kaggle 电影情感分析,我发现电影评论已使用 Standford Parser 进行了解析。在探索数据集时,我发现相同的语句给出了不同的设置- their parents , wise
我正在尝试使用Affectiva emotion sdk 制作一个演示程序。但是,当我调用 detector.setLicensePath() 时,会抛出一个异常(见下图)。有谁知道如何解决这个问题?
我想设置一个使用 Material-UI v4.11.4 的 Typescript 项目来使用情感进行样式设置,为 MUI v5 版本做准备。目标是在项目中引入情感,以便开发人员可以开始使用新样式,而
我是一名优秀的程序员,十分优秀!