gpt4 book ai didi

python - 如何使用 Sklearn 提高 SVM 分类器的速度

转载 作者:太空宇宙 更新时间:2023-11-04 03:20:10 25 4
gpt4 key购买 nike

我正在尝试构建一个垃圾邮件分类器,我已经从互联网上收集了多个数据集(例如,垃圾邮件/非垃圾邮件的 SpamAssassin 数据库)并构建了这个:

import os
import numpy
from pandas import DataFrame
from sklearn.feature_extraction.text import CountVectorizer
from sklearn.pipeline import Pipeline
from sklearn.cross_validation import KFold
from sklearn.metrics import confusion_matrix, f1_score
from sklearn import svm

NEWLINE = '\n'

HAM = 'ham'
SPAM = 'spam'

SOURCES = [
('C:/data/spam', SPAM),
('C:/data/easy_ham', HAM),
# ('C:/data/hard_ham', HAM), Commented out, since they take too long
# ('C:/data/beck-s', HAM),
# ('C:/data/farmer-d', HAM),
# ('C:/data/kaminski-v', HAM),
# ('C:/data/kitchen-l', HAM),
# ('C:/data/lokay-m', HAM),
# ('C:/data/williams-w3', HAM),
# ('C:/data/BG', SPAM),
# ('C:/data/GP', SPAM),
# ('C:/data/SH', SPAM)
]

SKIP_FILES = {'cmds'}


def read_files(path):
for root, dir_names, file_names in os.walk(path):
for path in dir_names:
read_files(os.path.join(root, path))
for file_name in file_names:
if file_name not in SKIP_FILES:
file_path = os.path.join(root, file_name)
if os.path.isfile(file_path):
past_header, lines = False, []
f = open(file_path, encoding="latin-1")
for line in f:
if past_header:
lines.append(line)
elif line == NEWLINE:
past_header = True
f.close()
content = NEWLINE.join(lines)
yield file_path, content


def build_data_frame(path, classification):
rows = []
index = []
for file_name, text in read_files(path):
rows.append({'text': text, 'class': classification})
index.append(file_name)

data_frame = DataFrame(rows, index=index)
return data_frame


data = DataFrame({'text': [], 'class': []})
for path, classification in SOURCES:
data = data.append(build_data_frame(path, classification))

data = data.reindex(numpy.random.permutation(data.index))

pipeline = Pipeline([
('count_vectorizer', CountVectorizer(ngram_range=(1, 2))),
('classifier', svm.SVC(gamma=0.001, C=100))
])

k_fold = KFold(n=len(data), n_folds=6)
scores = []
confusion = numpy.array([[0, 0], [0, 0]])
for train_indices, test_indices in k_fold:
train_text = data.iloc[train_indices]['text'].values
train_y = data.iloc[train_indices]['class'].values.astype(str)

test_text = data.iloc[test_indices]['text'].values
test_y = data.iloc[test_indices]['class'].values.astype(str)

pipeline.fit(train_text, train_y)
predictions = pipeline.predict(test_text)

confusion += confusion_matrix(test_y, predictions)
score = f1_score(test_y, predictions, pos_label=SPAM)
scores.append(score)

print('Total emails classified:', len(data))
print('Support Vector Machine Output : ')
print('Score:' + str((sum(scores) / len(scores))*100) + '%')
print('Confusion matrix:')
print(confusion)

我注释掉的行是邮件的集合,即使我注释掉了大部分数据集并选择了邮件数量最少的那一行,它仍然运行得非常慢(~15 分钟)并且准确度约为91%。如何提高速度和准确性?

最佳答案

您正在使用内核 SVM。这有两个问题。

内核 SVM 的运行时间复杂度:执行内核 SVM 的第一步是构建一个相似矩阵,它成为特征集。对于 30,000 个文档,相似度矩阵中的元素数变为 90,000,000。随着语料库的增长,它会迅速增长,因为矩阵会以语料库中文档数量的平方增长。在 scikit-learn 中使用 RBFSampler 可以解决这个问题,但出于下一个原因,您可能不想使用它。

维数:您使用术语和二元组计数作为您的特征集。这是一个极高维的数据集。在高维空间中使用 RBF 核,即使是很小的差异(噪声)也会对相似性结果产生很大影响。查看curse of dimensionality .这可能就是为什么 RBF 核产生的结果比线性核差的原因。

随机梯度下降:可以使用 SGD 代替标准 SVM,并且通过良好的参数调整,它可能会产生类似甚至更好的结果。缺点是 SGD 在学习率和学习率计划方面有更多参数需要调整。此外,对于少数几遍,SGD 并不理想。在这种情况下,其他算法(如 Follow The Regularized Leader (FTRL))会做得更好。不过,Scikit-learn 并未实现 FTRL。使用 SGDClassifier使用 loss="modified_huber" 通常效果很好。

既然我们已经解决了问题,您可以通过多种方式提高性能:

tf-idf 权重:使用 tf-idf , 更常见的词权重更小。这允许分类器更好地表示更有意义的稀有词。这可以通过将 CountVectorizer 切换为 TfidfVectorizer 来实现

参数调整:对于线性SVM,没有gamma参数,但是C参数可以用来大大改善结果。对于 SGDClassifier,还可以调整 alpha 和学习率参数。

集成:在多个子样本上运行您的模型并对结果求平均通常会产生比单次运行更稳健的模型。这可以在 scikit-learn 中使用 BaggingClassifier 完成。结合不同的方法也可以产生更好的结果。如果使用完全不同的方法,请考虑使用带有树模型(RandomForestClassifier 或 GradientBoostingClassifier)的堆叠模型作为最后阶段。

关于python - 如何使用 Sklearn 提高 SVM 分类器的速度,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/34939683/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com