1.条件概率
2.很显然可以得到:
3.继续推导可以得到:
4.(4)全概率公式(这里只给公式,先前条件就不提了):
推导过程:
有了上面这几个公式,基本就可以满足要求了,下面,开始推导朴素的贝叶斯分类器,主要参考李航的《统计学习方法》中的过程。先提出问题,现在给出一堆数据或者是训练集:
解释:x表示特征(可能有多个特征),y表示标签(可能是多个标签哦)。
朴素贝叶斯算法对条件概率分布做了条件独立性的假设,所以具体的条件独立性假设是:
公式1:
解释: 表示标签 Y 中的一个值,
表示一组向量,可能有n个特征,为什么连乘?因为假设相互独立。
公式2:
解释:这个值要通过全概率公式来求,即
现在,把公式1带入公式2得:
公式3:
其中k = 1 , 2 , 3... , K k=1,2,3...,Kk=1,2,3...,K
公式4:
解释:这个公式的意思就是,在所有的标签中,选择一个最大的后验概率那个标签,作为本次分类的结果。很显然,在最大化后验概率的时,公式4中的分母是相同的,所以可以进一步化简得到:
公式5:
网友评论