gpt4 book ai didi

python - 为什么数据清洗会降低准确性?

转载 作者:行者123 更新时间:2023-11-30 09:03:21 24 4
gpt4 key购买 nike

使用 scikit learn 中的 20 个新闻组来实现可重复性。当我训练 svm 模型,然后通过删除页眉、页脚和引号来执行数据清理时,准确性会降低。难道不应该通过数据清理来改善吗?做所有这些事情然后得到更差的准确性有什么意义?

我创建了这个带有数据清理的示例,以帮助您理解我所指的内容:

from sklearn.datasets import fetch_20newsgroups
from sklearn.feature_extraction.text import TfidfVectorizer
from sklearn.metrics import accuracy_score
categories = ['alt.atheism', 'comp.graphics']
newsgroups_train = fetch_20newsgroups(subset='train', categories=categories, shuffle=True, random_state=2017,
remove=('headers', 'footers', 'quotes') )
newsgroups_test = fetch_20newsgroups(subset='test', categories=categories,shuffle=True, random_state=2017,
remove=('headers', 'footers', 'quotes') )
y_train = newsgroups_train.target
y_test = newsgroups_test.target

vectorizer = TfidfVectorizer(sublinear_tf=True, smooth_idf = True, max_df=0.5, ngram_range=(1, 2),stop_words='english')
X_train = vectorizer.fit_transform(newsgroups_train.data)
X_test = vectorizer.transform(newsgroups_test.data)


from sklearn.svm import SVC
from sklearn import metrics

clf = SVC(C=10, cache_size=200, class_weight=None, coef0=0.0,
decision_function_shape='ovr', degree=3, gamma=1, kernel='rbf', max_iter=-1,
probability=False, random_state=None, shrinking=True, tol=0.001,
verbose=False)
clf = clf.fit(X_train, y_train)
y_train_pred = clf.predict(X_train)
y_test_pred = clf.predict(X_test)
print('Train accuracy_score: ', metrics.accuracy_score(y_train, y_train_pred))
print('Test accuracy_score: ',metrics.accuracy_score(newsgroups_test.target, y_test_pred))
print("-"*12)
print("Train Metrics: ", metrics.classification_report(y_train, y_train_pred))
print("-"*12)
print("Test Metrics: ", metrics.classification_report(newsgroups_test.target, y_test_pred))

数据清理前的结果:

Train accuracy_score:  1.0
Test accuracy_score: 0.9731638418079096

数据清洗后的结果:

Train accuracy_score:  0.9887218045112782
Test accuracy_score: 0.9209039548022598

最佳答案

这不一定是你的数据清理,我假设你运行脚本两次?

问题出在这行代码:

clf = SVC(C=10, cache_size=200, class_weight=None, coef0=0.0,
decision_function_shape='ovr', degree=3, gamma=1, kernel='rbf', max_iter=-1,
probability=False, random_state=None, shrinking=True, tol=0.001,
verbose=False)

random_state=None您应该将随机状态修复为例如random_state=42,否则无法产生相同的结果,如果您现在再次运行此代码,您将再次得到不同的结果。

编辑:

解释在 dataset网站本身:如果您实现:

import numpy as np
def show_top10(classifier, vectorizer, categories):
feature_names = np.asarray(vectorizer.get_feature_names())
for i, category in enumerate(categories):
top10 = np.argsort(classifier.coef_[i])[-10:]
print("%s: %s" % (category, " ".join(feature_names[top10])))

您现在可以看到这些功能过度拟合的许多内容:

几乎每个组都通过诸如 NNTP-Posting-Host: 和 Distribution: 之类的 header 是否频繁出现来区分。

另一个重要特征涉及发件人是否隶属于大学,如其 header 或签名所示。

“文章”一词是一个重要特征,基于人们引用以前帖子的频率,例如:“在文章 [文章 ID] 中,[姓名] <[电子邮件地址]> 写道:”

其他功能与当时发帖的特定人员的姓名和电子邮件地址相匹配。

有了如此丰富的区分新闻组的线索,分类器几乎不需要从文本中识别主题,而且它们都具有相同的高水平。

因此,加载 20 个新闻组数据的函数提供了一个名为“remove”的参数,告诉它要从每个文件中删除哪些类型的信息。删除应该是包含

的任何子集的元组

总结:

删除东西可以防止数据泄漏,这意味着你的训练数据中有一些在预测阶段不会有的信息,所以你必须删除它,否则你会得到更好的结果,但这会是不存在新数据。

关于python - 为什么数据清洗会降低准确性?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/59068382/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com