- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我正在使用 sklearn 多项朴素贝叶斯分类器对 20NewsGroup 数据进行分类。代码如下:
import numpy as np
import operator
from sklearn import datasets, naive_bayes, metrics, feature_extraction
data_train = datasets.fetch_20newsgroups(subset = 'train', shuffle = True, random_state = 2016, remove = ('headers', 'footers', 'quotes'))
data_test = datasets.fetch_20newsgroups(subset = 'test', shuffle = True, random_state = 2016, remove = ('headers', 'footers', 'quotes'))
categories = data_train.target_names
target_map = {}
for i in range(len(categories)):
if 'comp.' in categories[i]:
target_map[i] = 0
elif 'rec.' in categories[i]:
target_map[i] = 1
elif 'sci.' in categories[i]:
target_map[i] = 2
elif 'misc.forsale' in categories[i]:
target_map[i] = 3
elif 'talk.politics' in categories[i]:
target_map[i] = 4
else:
target_map[i] = 5
y_temp = data_train.target
y_train = []
for y in y_temp:
y_train.append(target_map[y])
y_temp = data_test.target
y_test = []
for y in y_temp:
y_test.append(target_map[y])
count_vectorizer = feature_extraction.text.CountVectorizer(min_df = 0.01, max_df = 0.5, stop_words = 'english')
x_train = count_vectorizer.fit_transform(data_train.data)
x_test = count_vectorizer.transform(data_test.data)
feature_names= count_vectorizer.get_feature_names()
mnb_alpha_001 = naive_bayes.MultinomialNB(alpha = 0.01)
mnb_alpha_001.fit(x_train, y_train)
y_pred_001 = mnb_alpha_001.predict(x_test)
print('Accuracy Of MNB With Alpha = 0.01 : ', metrics.accuracy_score(y_test,y_pred_001))
以上代码可以很好地执行分类。此外,我想列出每个类别(类别 0 - 类别 5)中区分该类别与其他类别的 10 个最明显的词。
如果我只有 2 个类别(类别 0 - 类别 1),我可以使用 feature_log_prob_ 来比较对数概率,如下所示:
diff = mnb_alpha_001.feature_log_prob_[1,:] - mnb_alpha_001.feature_log_prob_[0,:]
name_diff = {}
for i in range(len(feature_names)):
name_diff[feature_names[i]] = diff[i]
names_diff_sorted = sorted(name_diff.items(), key = operator.itemgetter(1), reverse = True)
for i in range(10):
print(names_diff_sorted[i])
上面的代码将列出类别 1 中 10 个最可区分的词,以将其与类别 0 区分开来。问题是,如果我有 2 个以上的类别,我不能只简单地减去对数概率。
是否需要您的专家建议我如何执行此任务,以便在每个类别中获得 10 个最有区别的词?
非常感谢。
最佳答案
acc=[]
i=0
rr=[0.001,0.01,0.1,1,10]
for alp in [0,1,2,3,4]:
mnb = naive_bayes.MultinomialNB(alpha = alp)
mnb.fit(x_train, y_train)
y_pred = mnb.predict(x_test)
print('accuracy of Multinomial Naive Bayes for alpha ',rr[alp],'=', metrics.accuracy_score(y_test, y_pred))
acc.append(metrics.accuracy_score(y_test, y_pred))
import operator
pos,m = max(enumerate(acc), key=operator.itemgetter(1))
print("Max accuracy=",m," for alpha=",rr[pos])
for ss in [0,1,2,3,4,5]:
mnb = naive_bayes.MultinomialNB(alpha = rr[pos])
mnb.fit(x_train, y_train)
y_pred = mnb.predict(x_test)
acc[alp]=metrics.accuracy_score(y_test, y_pred)
feature_names = count_vectorizer.get_feature_names()
diff = mnb.feature_log_prob_[ss,:] - np.max(mnb.feature_log_prob_[-ss:])
name_diff = {}
for i in range(len(feature_names)):
name_diff[feature_names[i]] = diff[i]
names_diff_sorted = sorted(name_diff.items(), key = op.itemgetter(1), reverse = True)
for i in range(10):
print(ss,names_diff_sorted[i])
关于python - sklearn MultinomialNB 如何在类里面找到最有区别的词,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/35353150/
给定一个包含 100 行的数据表,例如: Place | Text | Value | Text_Two europe | some random text | 3.
好的,我正在学习 Andrew Ng 的机器学习类(class)。我正在阅读 this chapter并想使用 SKLearn 和 Python 为自己尝试多项式朴素贝叶斯(第 12 页底部)。所以
我已经能够制作一个 MultinomialNB 分类器并将其保存到 pickle 文件中以备后用(感谢 youtube 视频:https://www.youtube.com/watch?v=0kPRa
我有一个形状为 (100000, 56000) 的 BoW 向量,并且我想使用 scikit-learn 中的 MultinomialNB 来执行分类任务。 MultinomialNB 是否采用稀疏矩
我目前正在尝试为分类特征推出我自己的朴素贝叶斯分类器,以确保我理解它们。现在我想将它们与 sklearns MultinomialNB 进行比较。但由于某种原因,我无法让 skearn 版本正确运行。
这是一个关于功能集的非常基本的问题。 假设我有一群具有各种特征的人,我想向他们提出建议。他们还写了一段自由格式的文本,这对于我需要向他们推荐的内容非常重要。 我可以理解如何矢量化他们的示例文本,但我不
我需要创建一个模型,根据变量对记录进行准确分类。例如,如果记录具有预测变量 A 或 B,我希望将其分类为具有预测值 X。实际数据是这样的形式: Predicted Predictor
在我提出这个问题之前,我不得不说我已经彻底阅读了这个论坛上超过 15 个类似的主题,每个主题都有不同的建议,但所有这些都无法让我正确理解。 好的,所以我将我的“垃圾邮件”文本数据(最初为 csv 格式
我正在使用 sklearn 多项朴素贝叶斯分类器对 20NewsGroup 数据进行分类。代码如下: import numpy as np import operator from sklearn i
我正在创建一个简单的推荐器,它会根据推文的相似性推荐其他用户。我使用 tfidf 对所有文本进行矢量化,并且能够将数据放入 MultinomialNB 中,但在尝试预测时不断出现错误 我尝试将数据重新
我正在尝试使用 sci kit learn 在 python 中的一系列示例上运行多项式朴素贝叶斯。我一直将所有例子都归类为负面。训练集有点偏向负数 P(负数) ~.75。我翻阅了documentat
如何计算多类文本分类的 FPR、TPR、AUC、roc_curve。 我使用了以下代码: from sklearn.model_selection import train_test_split X_
在 sklearn 中运行 MultinomialNB 之前,我正在标准化我的文本输入: vectorizer = TfidfVectorizer(max_df=0.5, stop_words='en
我正在尝试让我的 MultinomialNB 工作。我在训练和测试集上使用 CountVectorizer,当然两个集中都有不同的单词。所以我明白了,为什么会出现错误 ValueError: dime
我目前正在尝试使用 Python 和 Scikit-learn 构建一些文本分类工具。 我的文本不是英文的,因此不受词干分解或其他基于英文的降维的通常处理。 结果,TfIdf矩阵变得非常大(150,0
# Note: The runnable code example is at the end of this question #### # Assume X_train contains clea
问题:将用户产品分类为禁止或批准。 如果商品包含“濒临灭绝的物种”、“虎皮”等 输入:产品标题+描述 相应标签:已批准/禁止 我使用监督学习算法MultinomialNB对产品进行分类,它的二元组准确
我正在尝试比较多项式、二项式和伯努利分类器的性能,但出现错误: TypeError: float() argument must be a string or a number, not 'set'
我是一名优秀的程序员,十分优秀!