一、概述
假设有以下数据:
这些数据符合下图关系(以一维数据为例),这里的函数忽略了偏置
:

二、最小二乘估计
接下来通过对求导就可以解得参数w:
以上未考虑偏执,如果考虑的话则可以为
添加一个维度,同时也为
添加一个维度并使得添加的维度的值为
,然后使用同样的求解方法即可。.
三、线性回归的几何解释
- 每个样本点的误差的总和
使用最小二乘法可以看做损失函数是每个样本的误差的总和,每个样本的误差即是与
的差,如下图所示:

-
在
的列空间上的投影
一组向量的生成子空间(span)是原始向量线性组合后所能抵达的点的集合。确定方程
是否有解,相当于确定向量
是否在
列向量的生成子空间中。这个特殊的生成子空间被称为
的列空间(column space)或者
的值域(range)。
我们的目的是为了求解使得
,显然这个方程一般是无解的,即
一般不在
的列空间中,因为样本点一般是散落在某条直线周围,所有的样本点准确地落在同一条直线上的情况少之又少。
对于,为了使
与
最接近,则
就应该是
在
的列空间中的投影,如下图所示,以
为例:

就应该与每一个
都垂直,即
,则可以直接解得
。
四、最小二乘法与极大似然估计
可以认为实际值与估计值之间的差是一个高斯噪声,即和
满足关系
,其中
是高斯噪声,满足
,因此
,即
可以使用极大似然估计法来进行求解:
可以看到最小二乘法与噪声为高斯噪声时的极大似然估计法是等价的。
五、线性回归的正则化
- 高维小样本的问题
当样本数远大于维度
时
可逆,而当出现高维小样本的情况即维度
大于样本数
时,
就不可逆,这种时候就容易出现过拟合的情况。
- 处理过拟合的方法
面对上述过拟合的现象有一些解决方案,主要有
特征选择指的是根据某种规则去掉一些特征来实现降维;特征提取的方法例如主成分分析(PCA),也是实现降维;正则化的方法指给损失函数添加惩罚项来避免过拟合。
- 正则化的方法
通过最小化来实现正则化,主要有L1正则化和L2正则化(也叫岭回归、权重衰减)。
下面为L2正则化的求解过程:
半正定矩阵加上对角矩阵
一定是可逆的,可以解决
可能不可逆带来的问题。
六、最小二乘法与最大后验估计
- 已知
仍然认为实际值与估计值之间的差是一个高斯噪声,即和
满足关系:
另外假设参数的服从先验分布:
- 最大后验估计法求解参数
可以看到正则化的最小二乘法与噪声为高斯噪声且先验也是高斯分布时的最大后验估计法是等价的。
- 总结
网友评论