美文网首页
朴素贝叶斯算法(Naive Bayes)

朴素贝叶斯算法(Naive Bayes)

作者: 格物致知Lee | 来源:发表于2019-02-19 15:57 被阅读0次

    在介绍朴素贝叶斯算法之前,我们来看看关于统计学的一些基础知识:

    贝叶斯定理需要先验知识作为支撑,而先验知识需要大量的计算和历史数据,因此在很长一段时间内,无法得到广泛应用。只有计算机诞生以后,它才获得真正的重视。人们发现,许多统计量是无法进行客观判断的,而互联网时代出现的大型数据集,再加上告诉运算能力,为验证这些统计量提供了方便,也为应用贝叶斯定理创造了条件。

    条件概率:

    P( A \mid B ) = \frac {P(A \bigcap B) } {P(B)}

    P(A \bigcap B) = P(A \mid B) * P(B)

    同理可得:

    P(A \bigcap B) = P(B \mid A) * P(A)

    即:

    P(A \mid B) * P(B) = P(B \mid A) * P(A)

    P(B \mid A) = \frac {P(A \mid B) * P(B)} {P(A)}

    全概率公式:

    若事件 B_{1} 、 B_{2} 、……B_{n} 构成一个完备事件组即\sum_{i=1}^n P(B_{i} ) = 1,且都有正概率,那么对于任意一个事件A,有如下公式

    P(A) = P(AB_1) + P(AB_2) + \cdots + P(ABn) = \\ P(A \mid B_1)P(B_1) + P(A \mid B_2)P(B_2) + \cdots + P(A \mid B_n)P(B_n)

    贝叶斯公式:

    贝叶斯公式与全概率公式相反,是在已知 P(B)的基础上,求 P(B \mid A)

    通过对条件概率的简单变形,就可以得到贝叶斯公式:

    P(B \mid A) = P(B) * \frac {P(A \mid B)} {P(A)} = P(B) * \frac {P(A \mid B)} {\sum_{i=1}^nP(B_{i})*P(A\mid B_{i} )  }

    贝叶斯公式由三部分形成,先验概率、后验概率、似然估计。其中后验概率 = 先验概率 * 似然估计。在上述公式中,P(B)是先验概率,\frac {P(A \mid B)} {P(A)}是似然估计,P(B \mid A)是后验概率。

    所谓先验概率就是在事件A发生之前,我们对B事件概率的一个判断。后验概率则指的是在事件A发生之后,我们对B事件概率的重新评估。似然估计是一个调整因子或者修正参数,在我们计算事件概率的时候,需要不断通过修正参数使得我们所求的概率无限接近于真实概率。

    如果似然估计 \frac {P(B \mid A)} {P(B)} > 1 ,那么表示A事件的发生提高了B事件发生的概率。相反的,如果似然估计 \frac {P(B \mid A)} {P(B)} < 1,那么表示A事件的发生降低了B事件发生的概率。

    2.朴素贝叶斯模型

    从统计学知识回到我们的数据分析。假如我们的分类模型样本是:

    (x_1^{(1)}, x_2^{(1)}, ...x_n^{(1)}, y_1), (x_1^{(2)}, x_2^{(2)}, ...x_n^{(2)},y_2), ... (x_1^{(m)}, x_2^{(m)}, ...x_n^{(m)}, y_m)

    即我们有m个样本,每个样本有n个特征,特征输出有K个标签,定义为{C_1,C_2,...,C_K}。从样本我们可以学习得到朴素贝叶斯的先验分布P(Y=C_k)(k=1,2,...K),条件概率分布P(X_1=x_1, X_2=x_2,...X_n=x_n|Y=C_k),然后我们就可以用贝叶斯公式得到P(X,Y):

    P(X,Y=C_k)  =  P(Y=C_k)P(X_1=x_1, X_2=x_2,...X_n=x_n|Y=C_k)

    分析上面的式子,P(Y=C_k) = \frac {C_{k} } {\sum_{i=1}^KC_{i}   }  即标签C_k在训练集中出现的频数。但是P(X_1=x_1, X_2=x_2,...X_n=x_n|Y=C_k)是一个复杂的n个维度的条件分布,很难计算。所以为了简化计算,朴素贝叶斯模型中假设n个特征之间相互独立,于是有:

    P(X_1=x_1, X_2=x_2,...X_n=x_n|Y=C_k) = P(X_1=x_1|Y=C_k)P(X_2=x_2|Y=C_k)...P(X_n=x_n|Y=C_k)

    最后回到我们要解决的问题,我们的问题是给定测试集的一个新样本特征

    (x_1^{(test)}, x_2^{(test)}, ...x_n^{(test)}),我们如何判断它属于哪个类型?

    贝叶斯模型的目标是后验概率最大化来判断分类。我们只要计算出所有的K个条件概率

    P(Y=C_k|X=X^{(test)})然后找出最大的条件概率对应的类别。

    3.朴素贝叶斯的目标函数

    我们预测的类别C_{result}是使P(Y=C_k|X=X^{(test)})最大的类别:

    \begin{align} C_{result}  & = \underbrace{argmax}_{C_k}P(Y=C_k|X=X^{(test)}) \\& = \underbrace{argmax}_{C_k}P(X=X^{(test)}|Y=C_k)P(Y=C_k) \Bigg{/}P(X=X^{(test)}) \end{align}

    分析上式可知分母P(X=X^{(test)})是固定值,因此预测公式可以简化为:

    C_{result}  = \underbrace{argmax}_{C_k}P(X=X^{(test)}|Y=C_k)P(Y=C_k)

    接着我们利用朴素贝叶斯的独立性假设,就可以得到通常意义上的朴素贝叶斯推断公式:

    C_{result}  = \underbrace{argmax}_{C_k}P(Y=C_k)\prod_{j=1}^{n}P(X_j=X_j^{(test)}|Y=C_k)

    4.朴素贝叶斯的参数估计

    在朴素贝叶斯算法中,学习意味着估计P(Y=C_k)P(X_j=X_j^{(test)}|Y=C_k)。可以用极大似然估计法估计相应的概率。先验概率P(Y=C_k)的极大似然估计是:

    P(Y=C_k) = \frac {\sum_{i=1}^NI(y_{i}  = C_{k} ) } {N  } ,k = 1,2,...K

    其中I(y_{i}  = C_{k} )= \begin{cases} 1& { y_i=C_k}\\ 0 & {y_i \neq C_k } \end{cases}即样本中标签C_k出现的次数在总样本数N中的占比。

    j个特征X^{(j)}可能的取值集合为({a_{j1},a_{j2},...a_{js}}),似然函数P(X^{(j)} =a_{jl} |Y=C_k) = \frac {\sum_{i=1}^NI(X^{(j)} =a_{jl},y_{i}  = C_{k} ) } {I(y_{i}  = C_{k} )   }

      j = 1,2,...N,l = 1,2,...S ,k = 1,2,...K

    C_k标签中,第j个特征X^{(j)}中各种取值的次数在C_k标签出现总次数中的占比。

    5.拉普拉斯平滑

    在用极大似然估计时,可能特征X^{(j)}的某些取值在C_k标签样本中没有出现,这时似然函数为0,同时导致目标函数为0,这会使分类产生偏差。为解决这一问题采用贝叶斯估计:

    P_\lambda (X^{(j)} =a_{jl} |Y=C_k) = \frac {\sum_{1}^NI(X^{(j)} =a_{jl},y_i  = C_{k} ) + \lambda } {\sum_{1}^NI(y_i  = C_{k} ) + S_{j} \lambda   }

    其中S_{j} C_k标签中第j个特征不重复数值的个数。当\lambda = 0是就是极大似然估计,当\lambda = 1时,称为拉普拉斯平滑。同样,先验概率的贝叶斯估计是:P_\lambda (Y=C_k) = \frac {\sum_{i=1}^NI(y_i  = C_{k} ) +\lambda } {N +K\lambda  } ,k = 1,2,...K

    以上为建立Naive Bayes模型的相关理论知识,具体的实例可以看看,同时感谢作者:

    https://bigquant.com/community/t/topic/126054

    小伙伴们如果觉得文章还行的请点个赞呦!!同时觉得文章哪里有问题的可以评论一下  谢谢你!

    相关文章

      网友评论

          本文标题:朴素贝叶斯算法(Naive Bayes)

          本文链接:https://www.haomeiwen.com/subject/gzbaeqtx.html