美文网首页
第十一天 什么是贝叶斯分类器

第十一天 什么是贝叶斯分类器

作者: 未不明不知不觉 | 来源:发表于2018-12-11 00:22 被阅读7次

转自阮一峰贝叶斯及其互联网应用

一年前的这个时候,我正在翻译 Paul Graham 的《黑客与画家》

那本书的第八章,写了一个非常具体的技术问题 ---- 如何使用贝叶斯推断过滤垃圾邮件(英文版)。

我没完全看懂那一章。当时是硬着头皮,按照字面意思把它译出来的。虽然译文质量还可以,但是心里很不舒服,下决心一定要搞懂它。

一年过去了,我读了一些概率论文献,逐渐发现贝叶斯推断并不难。原理的部分相当容易理解,不需要用到高等数学。

下面就是我的学习笔记。需要声明的是,我并不是这方面的专家,数学其实是我的弱项。欢迎大家提出宝贵意见,让我们共同学习和提高。

=====================================

贝叶斯推断及其互联网应用

image

一、什么是贝叶斯推断

贝叶斯推断(Bayesian inference)是一种统计学方法,用来估计统计量的某种性质。

它是贝叶斯定理(Bayes' theorem)的应用。英国数学家托马斯 · 贝叶斯(Thomas Bayes)在 1763 年发表的一篇论文中,首先提出了这个定理。

image

贝叶斯推断与其他统计学推断方法截然不同。它建立在主观判断的基础上,也就是说,你可以不需要客观证据,先估计一个值,然后根据实际结果不断修正。正是因为它的主观性太强,曾经遭到许多统计学家的诟病。

贝叶斯推断需要大量的计算,因此历史上很长一段时间,无法得到广泛应用。只有计算机诞生以后,它才获得真正的重视。人们发现,许多统计量是无法事先进行客观判断的,而互联网时代出现的大型数据集,再加上高速运算能力,为验证这些统计量提供了方便,也为应用贝叶斯推断创造了条件,它的威力正在日益显现。

二、贝叶斯定理

要理解贝叶斯推断,必须先理解贝叶斯定理。后者实际上就是计算 "条件概率" 的公式。

所谓 "条件概率"(Conditional probability),就是指在事件 B 发生的情况下,事 chart.png

件 A 发生的概率,用 P(A|B) 来表示。

bg2011082502.jpg

根据文氏图,可以很清楚地看到在事件 B 发生的情况下,事件 A 发生的概率就是 P(A∩B) 除以 P(B)。

chart (1).png

因此,

chart (1).png

同理可得,

chart.png

所以,

chart (3).png


chart (2).png

这就是条件概率的计算公式。

三、全概率公式

由于后面要用到,所以除了条件概率以外,这里还要推导全概率公式。

假定样本空间 S,是两个事件 A 与 A'的和。

bg2011082503.jpg

上图中,红色部分是事件 A,绿色部分是事件 A',它们共同构成了样本空间 S。

在这种情况下,事件 B 可以划分成两个部分。

bg2011082504.jpg

chart (3).png

在上一节的推导当中,我们已知

chart (5).png

所以,

这就是全概率公式。它的含义是,如果 A 和 A'构成样本空间的一个划分,那么事件 B 的概率,就等于 A 和 A'的概率分别乘以 B 对这两个事件的条件概率之和。

将这个公式代入上一节的条件概率公式,就得到了条件概率的另一种写法:

chart (8).png

四、贝叶斯推断的含义

对条件概率公式进行变形,可以得到如下形式:

chart (6).png

我们把 P(A) 称为 "先验概率"(Prior probability),即在 B 事件发生之前,我们对 A 事件概率的一个判断。P(A|B) 称为 "后验概率"(Posterior probability),即在 B 事件发生之后,我们对 A 事件概率的重新评估。P(B|A)/P(B) 称为 "可能性函数"(Likelyhood),这是一个调整因子,使得预估概率更接近真实概率。

所以,条件概率可以理解成下面的式子:

后验概率 = 先验概率 x 调整因子

这就是贝叶斯推断的含义。我们先预估一个 "先验概率",然后加入实验结果,看这个实验到底是增强还是削弱了 "先验概率",由此得到更接近事实的 "后验概率"。

在这里,如果 "可能性函数"P(B|A)/P(B)>1,意味着 "先验概率" 被增强,事件 A 的发生的可能性变大;如果 "可能性函数"=1,意味着 B 事件无助于判断事件 A 的可能性;如果 "可能性函数"<1,意味着 "先验概率" 被削弱,事件 A 的可能性变小。

五、【例子】水果糖问题

为了加深对贝叶斯推断的理解,我们看两个例子。

image

第一个例子。两个一模一样的碗,一号碗有 30 颗水果糖和 10 颗巧克力糖,二号碗有水果糖和巧克力糖各 20 颗。现在随机选择一个碗,从中摸出一颗糖,发现是水果糖。请问这颗水果糖来自一号碗的概率有多大?

我们假定,H1 表示一号碗,H2 表示二号碗。由于这两个碗是一样的,所以 P(H1)=P(H2),也就是说,在取出水果糖之前,这两个碗被选中的概率相同。因此,P(H1)=0.5,我们把这个概率就叫做 "先验概率",即没有做实验之前,来自一号碗的概率是 0.5。

再假定,E 表示水果糖,所以问题就变成了在已知 E 的情况下,来自一号碗的概率有多大,即求 P(H1|E)。我们把这个概率叫做 "后验概率",即在 E 事件发生之后,对 P(H1) 的修正。

根据条件概率公式,得到

chart (7).png

已知,P(H1) 等于 0.5,P(E|H1) 为一号碗中取出水果糖的概率,等于 0.75,那么求出 P(E) 就可以得到答案。根据全概率公式,

chart (8).png

所以,

chart (22).png

将数字代入原方程,得到

chart (23).png

这表明,来自一号碗的概率是 0.6。也就是说,取出水果糖之后,H1 事件的可能性得到了增强。

六、【例子】假阳性问题

第二个例子是一个医学的常见问题,与现实生活关系紧密。

image

已知某种疾病的发病率是 0.001,即 1000 人中会有 1 个人得病。现有一种试剂可以检验患者是否得病,它的准确率是 0.99,即在患者确实得病的情况下,它有 99% 的可能呈现阳性。它的误报率是 5%,即在患者没有得病的情况下,它有 5% 的可能呈现阳性。现有一个病人的检验结果为阳性,请问他确实得病的可能性有多大?

假定 A 事件表示得病,那么 P(A) 为 0.001。这就是 "先验概率",即没有做试验之前,我们预计的发病率。再假定 B 事件表示阳性,那么要计算的就是 P(A|B)。这就是 "后验概率",即做了试验以后,对发病率的估计。

根据条件概率公式,

用全概率公式改写分母,

chart (10).png

将数字代入,

chart (24).png

我们得到了一个惊人的结果,P(A|B) 约等于 0.019。也就是说,即使检验呈现阳性,病人得病的概率,也只是从 0.1% 增加到了 2% 左右。这就是所谓的 "假阳性",即阳性结果完全不足以说明病人得病。

为什么会这样?为什么这种检验的准确率高达 99%,但是可信度却不到 2%?答案是与它的误报率太高有关。(【习题】如果误报率从 5% 降为 1%,请问病人得病的概率会变成多少?)

有兴趣的朋友,还可以算一下 "假阴性" 问题,即检验结果为阴性,但是病人确实得病的概率有多大。然后问自己,"假阳性" 和 "假阴性",哪一个才是医学检验的主要风险?

贝叶斯推断及其互联网应用

image

(接上文)

七、什么是贝叶斯过滤器?

垃圾邮件是一种令人头痛的顽症,困扰着所有的互联网用户。

正确识别垃圾邮件的技术难度非常大。传统的垃圾邮件过滤方法,主要有 "关键词法" 和 "校验码法" 等。前者的过滤依据是特定的词语;后者则是计算邮件文本的校验码,再与已知的垃圾邮件进行对比。它们的识别效果都不理想,而且很容易规避。

2002 年,Paul Graham 提出使用 "贝叶斯推断" 过滤垃圾邮件。他说,这样做的效果,好得不可思议。1000 封垃圾邮件可以过滤掉 995 封,且没有一个误判。

另外,这种过滤器还具有自我学习的功能,会根据新收到的邮件,不断调整。收到的垃圾邮件越多,它的准确率就越高。

八、建立历史资料库

贝叶斯过滤器是一种统计学过滤器,建立在已有的统计结果之上。所以,我们必须预先提供两组已经识别好的邮件,一组是正常邮件,另一组是垃圾邮件。

我们用这两组邮件,对过滤器进行 "训练"。这两组邮件的规模越大,训练效果就越好。Paul Graham 使用的邮件规模,是正常邮件和垃圾邮件各 4000 封。

"训练" 过程很简单。首先,解析所有邮件,提取每一个词。然后,计算每个词语在正常邮件和垃圾邮件中的出现频率。比如,我们假定 "sex" 这个词,在 4000 封垃圾邮件中,有 200 封包含这个词,那么它的出现频率就是 5%;而在 4000 封正常邮件中,只有 2 封包含这个词,那么出现频率就是 0.05%。(【注释】如果某个词只出现在垃圾邮件中,Paul Graham 就假定,它在正常邮件的出现频率是 1%,反之亦然。这样做是为了避免概率为 0。随着邮件数量的增加,计算结果会自动调整。)

有了这个初步的统计结果,过滤器就可以投入使用了。

九、贝叶斯过滤器的使用过程

现在,我们收到了一封新邮件。在未经统计分析之前,我们假定它是垃圾邮件的概率为 50%。(【注释】有研究表明,用户收到的电子邮件中,80% 是垃圾邮件。但是,这里仍然假定垃圾邮件的 "先验概率" 为 50%。)

我们用 S 表示垃圾邮件(spam),H 表示正常邮件(healthy)。因此,P(S) 和 P(H) 的先验概率,都是 50%。

chart.png

然后,对这封邮件进行解析,发现其中包含了 sex 这个词,请问这封邮件属于垃圾邮件的概率有多高?

我们用 W 表示 "sex" 这个词,那么问题就变成了如何计算 P(S|W) 的值,即在某个词语(W)已经存在的条件下,垃圾邮件(S)的概率有多大。

根据条件概率公式,马上可以写出

chart (1).png

公式中,P(W|S) 和 P(W|H) 的含义是,这个词语在垃圾邮件和正常邮件中,分别出现的概率。这两个值可以从历史资料库中得到,对 sex 这个词来说,上文假定它们分别等于 5% 和 0.05%。另外,P(S) 和 P(H) 的值,前面说过都等于 50%。所以,马上可以计算 P(S|W) 的值:

chart (11).png

因此,这封新邮件是垃圾邮件的概率等于 99%。这说明,sex 这个词的推断能力很强,将 50% 的 "先验概率" 一下子提高到了 99% 的 "后验概率"。

十、联合概率的计算

做完上面一步,请问我们能否得出结论,这封新邮件就是垃圾邮件?

回答是不能。因为一封邮件包含很多词语,一些词语(比如 sex)说这是垃圾邮件,另一些说这不是。你怎么知道以哪个词为准?

Paul Graham 的做法是,选出这封信中 P(S|W) 最高的 15 个词,计算它们的联合概率。(【注释】如果有的词是第一次出现,无法计算 P(S|W),Paul Graham 就假定这个值等于 0.4。因为垃圾邮件用的往往都是某些固定的词语,所以如果你从来没见过某个词,它多半是一个正常的词。)

所谓联合概率,就是指在多个事件发生的情况下,另一个事件发生概率有多大。比如,已知 W1 和 W2 是两个不同的词语,它们都出现在某封电子邮件之中,那么这封邮件是垃圾邮件的概率,就是联合概率。

在已知 W1 和 W2 的情况下,无非就是两种结果:垃圾邮件(事件 E1)或正常邮件(事件 E2)。

bg2011082701.png

其中,W1、W2 和垃圾邮件的概率分别如下:

image

如果假定所有事件都是独立事件(【注释】严格地说,这个假定不成立,但是这里可以忽略),那么就可以计算 P(E1) 和 P(E2):

chart (2).png chart (5).png

又由于在 W1 和 W2 已经发生的情况下,垃圾邮件的概率等于下面的式子:

chart (12).png

chart (13).png

将 P(S) 等于 0.5 代入,得到

chart (2).png

将 P(S|W1) 记为 P1,P(S|W2) 记为 P2,公式就变成

chart (3).png

这就是联合概率的计算公式。如果你不是很理解,点击这里查看更多的解释。

十一、最终的计算公式

将上面的公式扩展到 15 个词的情况,就得到了最终的概率计算公式:

chart (4).png

一封邮件是不是垃圾邮件,就用这个式子进行计算。这时我们还需要一个用于比较的门槛值。Paul Graham 的门槛值是 0.9,概率大于 0.9,表示 15 个词联合认定,这封邮件有 90% 以上的可能属于垃圾邮件;概率小于 0.9,就表示是正常邮件。

有了这个公式以后,一封正常的信件即使出现 sex 这个词,也不会被认定为垃圾邮件了。

chart (4).png

相关文章

网友评论

      本文标题:第十一天 什么是贝叶斯分类器

      本文链接:https://www.haomeiwen.com/subject/phvjhqtx.html