本文主要分为三个部分:
- LDA背景
- 一维情形的LDA
- 高维情形的LDA
(1)提出LDA的背景
- 当类别分的比较开的时候,logistic regression的参数估计很不稳定,但LDA不存在这个问题。
- 当样本量n很小并且自变量
在每一类中(近似)服从正态分布的时候,LDA也会比logistic regression稳定得多。
- 当多分类问题时,LDA比logistic regression更popular(because it also provides low-dimensional views of the data).
(2)贝叶斯定理
- 贝叶斯公式:
- 对于混合模型:
其中,是第
类中的
的密度函数,假设每一类中都满足正态分布,
是第
类的边际概率(先验)。
(3)LDA的思路推理
- 从一维的开始:
假设第类的密度函数为:
其中分别是第
类的均值和方差,在LDA中,我们假设所有
个类的方差是相等的,即
.
可以计算第类的后验概率
很简单,我们会将样本归为
个后验概率最大的类,即
定义:. 则最大化后验概率与最大化
等价。观察
的形式,他是关于
的一个一次函数,这也就是为什么这个方法叫做Linear Discriminant Analysis的原因。
接下来求决策边界(decision boundary),决策边界,顾名思义,在这条分界线上,无法准确给出明确的判断,因此有. 样本
对于第
类与第
类的后验概率相等。根据这个性质,我们将这样的
求解出来,也就得到了
两类的决策边界。
- 继续推广到多维:
同一维的情形,找到最大后验概率:
同样,这里的是一个关于
的线性函数。如果令
,可以找到(线性)决策边界。
网友评论