基本方法
朴素贝叶斯定理是基于联合概率分布以及特征条件独立假设的分类方法。对于给定的训练数据集,首先基于特征条件独立假设学习输入输出的联合概率分布;然后基于次模型,对给定输入,利用贝叶斯定理求出后验概率最大的输出
。朴素贝叶斯法实现简单,学习与预测的效率都很高,是一种常用的方法。
设输入空间为
维向量的集合,输出空间的类标记
。输入的特征向量
,输出的类标记
。
是定义在输入空间
上的随机向量,
是定义在输出空间
上的随机变量。
是
和
的联合概率分布。训练数据集
由独立同分布产生。
朴素贝叶斯通过训练集学习联合概率分布,具体来说先学习一下先验概率以及条件概率分布。
先验概率分布:
假设输入样本有
个特征,条件概率分布:
若第个特征可能的取值集合大小为
,则模型的将训练指数级别的参数
。在实际应用中不可行,因此假设当类确定是,每个特征是相互独立的即:
朴素贝叶斯公式是生成式模型,在分类的过程中,通过学习到的模型计算后验概率分布,将后验概率最大的类作为模型的输出。
其中分母是累加求和与具体的类无关,因此只需将上式的分子最大化:
极大似然估计
在朴素贝叶斯方法中,模型训练意味着估计以及
。可以应用极大似然估计来估计相应的概率。假设训练集的大小为N,
为指示函数
假设为第
个特征的第
个取值
学习与分类算法
输入:训练数据集,其中
,其中
表示第
个样本第
个特征的取值。
,
是第
个特征的第
个取值,
,
,
;实例
输出:实例的分类。
(1)先计算先验概率及条件概率
(2)对给定的实例,计算
(3)确定实例的类
网友评论