gpt4 book ai didi

R机器学习:朴素贝叶斯算法的理解与实操

转载 作者:撒哈拉 更新时间:2024-12-18 20:47:52 56 4
gpt4 key购买 nike

最近又看了很多贝叶斯算法的一些文章,好多的文章对这个算法解释起来会放一大堆公式,对代数不好的人来说真的很头疼。本文尝试着用大白话写写这个算法,再做个例子,帮助大家理解和运用.

Naive Bayes is a probabilistic machine learning algorithm based on the Bayes Theorem, used in a wide variety of classification tasks. 。

贝叶斯算法是分类问题的重要解决方法,简单但是很强大,在文本分类、垃圾邮件识别等高维数据(特征超多的数据集)的机器学习领域有重要应用。基本逻辑就是很多的时候我们很容易知道在不同的因变量的水平上自变量的分布的怎样的,我们要解决的问题是知道了特征的情况然后去预测因变量,其实就是:from P(X|Y), known from the training dataset, to find P(Y|X).朴素贝叶斯算法架起了从from P(X|Y)to find P(Y|X)的桥梁.

要很好的理解朴素贝叶斯的整个过程首先要弄清楚两个东西,一个是条件概率、一个是贝叶斯理论.

条件概率和贝叶斯定理

我们什么理论都不要想,先做一个例子:100个人的数据如下表,按照身份可以分为教师、学生。按照性别又可以分为男性女性。现在我们尝试得到男性中教师的概率是多少(把性别当做特征,把身份当做结局,这个问题便是知道特征求结局的概率的一个问题).

这个男性中教师的概率就是条件概率,我们不是单纯的求教师的概率而是先给了个条件(这个人首先得是男性)。这个时候计算概率的分母会变化.

when you say the conditional probability of A given B, it denotes the probability of A occurring given that B has already occurred. 。

  。

这个问题你会怎么做?可以直接找到男教师有多少(看表应该是12),然后用这个数字除以男性(看表应该是60人),可以得到12/60=0.12。就得到男性中教师的概率是0.2.

上面的12比上100就是0.12为同时是男性又是教师的概率。60比上100就是0.6为数据中男性的概率,我们用0.12/0.6得到了0.2的结果其实我们就是在不自觉地运行下面的公式:

  。

公式中,teacher和male可以互换位置。于是就有 。

图1 。

上面这两个公式就是两独立事件计算条件概率时天然满足的:

图2 。

我们将图1中的公式2带入公式1就得到贝叶斯定理了:

  。

这个贝叶斯定理最最重要的作用就是打通了从P(X|Y), known from the training dataset, to find P(Y|X)的路径 。

贝叶斯与朴素贝叶斯

上面的例子我们知道了贝叶斯定理的公式,这个公式和实际问题联系到一起还需要拓展一下 。

我们把公式中的AB换成XY,于是就有下图:

  。

我们把x当做自变量,y当做因变量。通过贝叶斯定理我们就把P(X|Y)到P(Y|X)的路径打通了。这个话要反复读.

现实中,我们收集来一波训练数据,我们是很容易知道在y的不同水平x是如何分布的(就像上面的例子中我们很容易知道教师中男性的比例是如何的,如果把性别当做自变量、身份当做因变量的话,很容易知道P(X|Y)),通过贝叶斯公式我们可以求得x分布确定的情况下,y取不同水平的概率(就像上面例子中我们知道了自变量性别是男性可以求的其为教师的概率为0.2,得到P(Y|X)). 。

也就是说贝叶斯定理成功的让我们可以从自变量的分布预测因变量.

The Bayes Rule is a way of going from P(X|Y), known from the training dataset, to find P(Y|X). 。

现实中我们会有很多的x,我们会想着直接将多个贝叶斯公式相乘来处理,这么做就暗含了一个朴素的假设就是所有的x都是独立的,这么一种朴素假设加持的贝叶斯就是朴素贝叶斯:

  。

这个名字只是因为它有这么一个朴素的假设:

The name naive is used because it assumes the features that go into the model is independent of each other. That is changing the value of one feature, does not directly influence or change the value of any of the other features used in the algorithm. 。

  。

就这么一个简单的假设,可以让这个算法可以处理很多个x的高维数据。很强大.

成为正规算法之后,就得有一些高大上的名词:

我们把特征理解为证据,因变量理解为结局,那么P(Y|X)就叫做后验概率posterior probability,意思是一组证据情况下结局是什么的概率,也是我们要预测的感兴趣的东西.

P(X|Y)叫做证据的似然概率,意思是某个结局存在的情况下相应证据出现的概率.

P(Y)叫做先验,意思是某个结局的相应概率.

P(X)叫做证据概率,意思是某些特征(证据),特征组合的相应概率.

总结一下:朴素贝叶斯就是后验概率等于证据似然概率乘以先验概率除以证据概率.

  。

实例

我们现在想通过3个证据组合x1,x2,x3来预测水果种类,数据大概格式如下:

  。

对这么个数据我们需要换个格式才能计算朴素贝叶斯算法对应的各种概率:

  。

统共有3个、首先是先验概率:

Compute the ‘Prior’ probabilities for each of the class of fruits 。

首先就是计算先验,就是每个种类水果的概率,可以看到在1000个水果中有800个香蕉,300个橘子,200个其他,那么我们可以得到各种水果的先验分别为0.5,0.3,0.2. 。

P(Y=Banana) = 500 / 1000 = 0.50 P(Y=Orange) = 300 / 1000 = 0.30 P(Y=Other) = 200 / 1000 = 0.20 。

再是证据概率 。

Compute the probability of evidence that goes in the denominator. 。

第二步就是计算证据的概率,也就是所有特征出现的概率,我们的特征有3个,x1到x3的证据概率分别为0.5,0.65,0.8.

P(x1=Long) = 500 / 1000 = 0.50 P(x2=Sweet) = 650 / 1000 = 0.65 P(x3=Yellow) = 800 / 1000 = 0.80 。

Compute the probability of likelihood of evidences that goes in the numerator. 。

第三步是计算证据似然的概率,比如说香蕉long这个特征为真的概率就为P(Long | Banana) = 400/500 = 0.8.

Substitute all the 3 equations into the Naive Bayes formula, to get the probability that it is a banana. 。

最后一步就是将前三步的结果带入朴素贝叶斯公式就可以得到在某组特征下水果分别为香蕉,为橘子,为其他水果的概率。例如在特征long、sweet、yellow为真的情况下,水果为香蕉的概率为0.252,为橘子的概率为0,为其他水果的概率为0.01875. 。

  。

那么这个时候算法就会告诉我们这个水果就是香蕉.

上面就是算法的整个过程,细心的同学估计会有疑问橘子的概率为0,只是因为所有训练数据中结局为橘子的个案long这个特征没有出现真(某一个证据似然概率为0),朴素贝叶斯算法涉及到相乘的话造成了结果为0。在这个只有3个特征的数据集中看起来这个结果无可厚非,长橘子本身好像现实中也不存在。但是想象一下我们面对一个陌生的数据集,特征很多,所有特征其实都有影响的,结局的某个类别中某个特征为0导致算法结果排除了该类别,这样肯定存在不合适,为0的特征影响实在太大了,相当于某一个特征有了一票否决.

所以有必要进行校正。校正的方法就叫做Laplace Correction,就是给每个为零的格子加一个数(通常为1),这样保证不出现概率为0的情况.

实操

只要理解了背后的逻辑,实操就很简单了,我们以iris数据集作为例子。原始数据长这样:

  。

共有5个变量,4个是特征,最后一个是结局(花的种类,有3类)。对于上面的数据集我们按照7:3划分好训练集和测试集.

iris_split <- initial_split(iris, prop = 0.70) iris_train <- training(iris_split) iris_test <- testing(iris_split)

然后我们用klaR包进行贝叶斯算法训练,同时用训练好的模型预测测试集数据,代码如下:

nb_mod <- NaiveBayes(Species ~ ., data=training) pred <- predict(nb_mod, test)

得到的pred对象就是预测的结果,对每一个个案预测模型都会输出的成为各个类别应变量的后验概率:

  。

后验概率最大的类别就是最终的模型输出类别.

再得到混淆矩阵,代码如下:

tab <- table(pred$class, iris_test$Species) caret::confusionMatrix(tab) 

  。

可以看到我们的模型在测试集中表现还是很好的,只有2个个案分类错了.

最后此篇关于R机器学习:朴素贝叶斯算法的理解与实操的文章就讲到这里了,如果你想了解更多关于R机器学习:朴素贝叶斯算法的理解与实操的内容请搜索CFSDN的文章或继续浏览相关文章,希望大家以后支持我的博客! 。

56 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com