1. 基本形式
给定个属性描述的示例
,线性模型试图学习一个通过线性组合来进行预测的函数,即
一般的向量形式写为
其中
,
和
学得之后,模型就可以确定。
2. 线性回归
2.1 一元线性回归
给定数据集其中
,线性回归试图学得一个线性模型尽可能准确地预测实值输出。
在回归任务中,我们试图最小化均方误差来学习回归模型中的参数和
,即
均方误差的求解方法称为最小二乘法,最小二乘法试图找到一条直线,使得所有样本到直线上的欧氏距离最小。
如何求解和
呢?即进行最小二乘参数估计,我们将均方误差函数分别对
和
求导,得到:
然后分别令上式为0得到
和
的最优解的闭式解:
2.2 多元线性回归
推广到更一般的情形,若有个属性描述,我们试图学到
类似地,可采取最小二乘法进行估计,不同的是这里需要对矩阵求偏导
分别对估计的参数和
求偏导得到
在令导数等于0,求解时,我们需要讨论
的秩的情况
3. 对数几率回归(Logistic回归)
上一节讨论了回归任务中的线性回归模型,若想做分类任务,该怎么办?只需要找到一个单调可微函数将分类的真实标记与线性模型的输出对应起来即可。
而上述阶跃函数是离散的,不可微的,难以进行参数估计,因此我们需要寻找一个单调可微的函数来近似阶跃函数,那就是
函数
![]()
![]()
进而,分类模型可以表示为
或
我们定义样本正例的可能性与反例可能性的比值为几率(logit):
,对几率取对数后可以得到对数几率:
模型参数的估计:极大似然法
通过极大似然法来估计
和
,给定数据集
,我们希望最大化每个样本属于其真实标签的概率:
两边取对数,从而有
将
带入上式可得
其中,
我们将其转换为最小化对数似然:
于是,最优化函数为关于的高阶可导连续凸函数,根据凸优化理论,经典的数值优化方法如梯度下降法、牛顿法可以求的最优解,如
3. 线性判别分析LDA
线性判别分析是一种经典的线性学习方法,适合于二分类以及多分类问题。
LDA二分类示意图:
LDA最优化目标:
![]()
![]()
![]()
LDA的优化目标:最小化广义瑞利商
优化的求解:拉格朗日乘子法+奇异值分解法(有待学习)
(图片来源于《机器学习》-周志华)
网友评论