本文主要分为三个部分:
- LDA背景
- 一维情形的LDA
- 高维情形的LDA
(1)提出LDA的背景
- 当类别分的比较开的时候,logistic regression的参数估计很不稳定,但LDA不存在这个问题。
- 当样本量n很小并且自变量在每一类中(近似)服从正态分布的时候,LDA也会比logistic regression稳定得多。
- 当多分类问题时,LDA比logistic regression更popular(because it also provides low-dimensional views of the data).
(2)贝叶斯定理
- 贝叶斯公式:
- 对于混合模型:
其中,是第类中的的密度函数,假设每一类中都满足正态分布,是第类的边际概率(先验)。
(3)LDA的思路推理
- 从一维的开始:
假设第类的密度函数为:
其中分别是第类的均值和方差,在LDA中,我们假设所有个类的方差是相等的,即.
可以计算第类的后验概率
很简单,我们会将样本归为个后验概率最大的类,即
定义:. 则最大化后验概率与最大化等价。观察的形式,他是关于的一个一次函数,这也就是为什么这个方法叫做Linear Discriminant Analysis的原因。
接下来求决策边界(decision boundary),决策边界,顾名思义,在这条分界线上,无法准确给出明确的判断,因此有. 样本对于第类与第类的后验概率相等。根据这个性质,我们将这样的求解出来,也就得到了两类的决策边界。
- 继续推广到多维:
同一维的情形,找到最大后验概率:
同样,这里的是一个关于的线性函数。如果令,可以找到(线性)决策边界。
网友评论