- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我正在用 Python 实现朴素贝叶斯分类器(作为大学作业的一部分,因此需要使用 Python)。我让它工作了,它产生了与 sklearn.naive_bayes.MultinomialNB 大致相同的结果。然而,与 sklearn 实现相比,它确实很慢。
假设特征值是0到max_i范围内的整数,类标签也是0到max_y范围内的整数。示例数据集如下所示:
>>> X = np.array([2,1 1,2 2,2 0,2]).reshape(4,2) # design matrix
>>> print(X)
[[2 1]
[1 2]
[2 2]
[0 2]]
>>> y = np.array([0, 1, 2, 0 ]) # class labels
>>> print(y)
[0 1 2 0]
现在,作为处理联合对数似然之前的中间步骤,我需要计算类条件似然(即 P(x_ij | y)
,使得矩阵 ccl
包含给定类 c 的特征 j 中值 k 的概率。上面示例的此类矩阵的输出为:
>>> print(ccl)
[[[0.5 0. 0.5]
[0. 0.5 0.5]]
[[0. 1. 0. ]
[0. 0. 1. ]]
[[0. 0. 1. ]
[0. 0. 1. ]]]
>>> print(ccl[0][1][1]) # prob. of value 1 in feature 1 given class 0
0.5
我为实现此目的而实现的代码如下所示:
N, D = X.shape
K = np.max(X)+1
C = np.max(y)+1
ccl = np.zeros((C,D,K))
# ccl = ccl + alpha - 1 # disregard the dirichlet prior for this question
# Count occurences of feature values given class c
for i in range(N):
for d in range(D):
ccl[y[i]][d][X[i][d]] += 1
# Renormalize so it becomes a probability distribution again
for c in range(C):
for d in range(D):
cls[c][d] = np.divide(cls[c][d], np.sum(cls[c][d]))
由于 Python 循环很慢,所以这也会变慢。我尝试通过对每个特征值进行 one-hot 编码来缓解这个问题(因此,如果特征值在 [0,1,2] 范围内,则 2 变为:[0,0,1] 等。)并总结像这样。虽然,我认为调用了太多的 np 函数,所以计算仍然花费太长的时间:
ccl = np.zeros((C,D,K))
for c in range(C):
x = np.eye(K)[X[np.where(y==c)]] # one hot encoding
ccl[c] += np.sum(x, axis=0) # summing up
ccl[c] /= ccl[c].sum(axis=1)[:, numpy.newaxis] # renormalization
这将产生与上面相同的输出。关于如何使其更快的任何提示?我认为 np.eye (one-hot 编码)是不必要的,并且会杀死它,但我想不出一种方法来摆脱它。我考虑的最后一件事是使用 np.unique()
或 collections.Counter
进行计数,但尚未弄清楚。
最佳答案
所以这是一个非常巧妙的问题(我有一个 similar problem not that long ago )。看起来处理这个问题的最快方法通常是仅使用算术运算构造一个索引数组,然后将其堆积并使用 np.bincount
reshape 它。
N, D = X.shape
K = np.max(X) + 1
C = np.max(y) + 1
ccl = np.tile(y, D) * D * K + (X + np.tile(K * range(D), (N,1))).T.flatten()
ccl = np.bincount(ccl, minlength=C*D*K).reshape(C, D, K)
ccl = np.divide(ccl, np.sum(ccl, axis=2)[:, :, np.newaxis])
>>> ccl
array([[[0.5, 0. , 0.5],
[0. , 0.5, 0.5]],
[[0. , 1. , 0. ],
[0. , 0. , 1. ]],
[[0. , 0. , 1. ],
[0. , 0. , 1. ]]])
作为速度比较,funca
是您的第一个基于循环的方法,funcb
是您的第二个基于 numpy 函数的方法,funcc
> 是使用 bincount 的方法。
X = np.random.randint(3, size=(10000,2))
y = np.random.randint(3, size=(10000))
>>> timeit.timeit('funca(X,y)', number=100, setup="from __main__ import funca, X, y")
2.632569645998956
>>> timeit.timeit('funcb(X,y)', number=100, setup="from __main__ import funcb, X, y")
0.10547748399949342
>>> timeit.timeit('funcc(X,y)', number=100, setup="from __main__ import funcc, X, y")
0.03524605900020106
也许可以进一步完善它,但我没有更好的想法。
关于python - 朴素贝叶斯分类器中特征值的快速计数,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/52958786/
我正在尝试使用 Pandas 和 scikit-learn 在 Python 中执行分类。我的数据集包含文本变量、数值变量和分类变量的混合。 假设我的数据集如下所示: Project Cost
我想要一种图形化且有吸引力的方式来表示二进制数据的列总和,而不是表格格式。我似乎无法让它发挥作用,尽管有人会认为这将是一次上篮。 数据看起来像这样(我尝试创建一个可重现的示例,但无法让代码填充 0 和
我有一个简单的类别模型: class Category(models.Model): name = models.CharField(max_length=200) slug = mo
我正在开发一个知识系统,当用户进入一道菜时,该系统可以返回酒。我的想法是根据用户的输入为每个葡萄酒类别添加分数,然后显示最适合的葡萄酒类别的前 3 个。例如,如果有人输入鱼,那么知识库中的所有红葡萄酒
我目前正在研究流失问题的预测模型。 每当我尝试运行以下模型时,都会收到此错误:至少一个类级别不是有效的 R 变量名称。这将在生成类概率时导致错误,因为变量名称将转换为 X0、X1。请使用可用作有效 R
如何对栅格重新分类(子集)r1 (与 r2 具有相同的尺寸和范围)基于 r2 中的以下条件在给定的示例中。 条件: 如果网格单元格值为 r2是 >0.5 ,保留>0.5中对应的值以及紧邻0.5个值的相
我想知道在 java 中进行以下分类的最佳方法是什么。例如,我们有一个简单的应用程序,其分类如下: 空气 -----电机类型 -----------平面对象 -----非电机型 -----------
这是一个非常基本的示例。但我正在做一些数据分析,并且不断发现自己编写非常类似的 SQL 计数查询来生成概率表。 我的表被定义为值 0 表示事件未发生,而值 1 表示事件确实发生。 > sqldf(
假设我有一组护照图像。我正在开展一个项目,我必须识别每本护照上的姓名,并最终将该对象转换为文本。 对于标签(或分类(我认为是初学者))的第一部分,每本护照上都有姓名,我该怎么做? 我可以使用哪些技术/
我有这张图片: 我想做的是在花和树之间对这张图片进行分类,这样我就可以找到图片中被树木覆盖的区域,以及被那些花覆盖的区域。 我在想这可能是某种 FFT 问题,但我不确定它是如何工作的。单个花的 FFT
我的数据集有 32 个分类变量和一个数值连续变量(sales_volume) 首先,我使用单热编码 (pd.get_dummies) 将分类变量转换为二进制,现在我有 1294 列,因为每一列都有多个
我正在尝试学习一些神经网络来获得乐趣。我决定尝试从 kaggle 的数据集中对一些神奇宝贝传奇卡进行分类。我阅读了文档并遵循了机器学习掌握指南,同时阅读了媒体以尝试理解该过程。 我的问题/疑问:我尝试
我目前正在进行推文情绪分析,并且有几个关于步骤的正确顺序的问题。请假设数据已经过相应的预处理和准备。所以这就是我将如何进行: 使用 train_test_split(80:20 比例)停止测试数据集。
一些上下文:Working with text classification and big sparse matrices in R 我一直在研究 text2vec 的文本多类分类问题。包装和 ca
数据 我有以下(简化的)数据集,我们称之为 df从现在开始: species rank value 1
我一直在尝试创建一个 RNN。我总共有一个包含 1661 个单独“条目”的数据集,每个条目中有 158 个时间序列坐标。 以下是一个条目的一小部分: 0.00000000e+00 1.9260968
我有一个关于机器学习的分类和回归问题。第一个问题,以下数据集 http://it.tinypic.com/view.php?pic=oh3gj7&s=8#.VIjhRDGG_lF 我们可以说,数据集是
我用1~200个数据作为训练数据,201~220个作为测试数据格式如下:3 个类(类 1、类 2、类 3)和 20 个特征 2 1:100 2:96 3:88 4:94 5:96 6:94 7:72
我有 2 个基于多个数字特征(例如 v1….v20)的输出类别(好和差)。 如果 v1、v2、v3 和 v4 为“高”,则该类别为“差”。如果 v1、v2、v3 和 v4 为“低”,则该类别为“好”
我遇到了使用朴素贝叶斯将文档分类为各种类别问题的问题。 实际上我想知道 P(C) 或我们最初掌握的类别的先验概率会随着时间的推移而不断变化。例如,对于类(class) - [音乐、体育、新闻] 初始概
我是一名优秀的程序员,十分优秀!