Week 3-7

作者: 忻恆 | 来源:发表于2020-05-01 20:59 被阅读0次

The least-squares problem

最小二乘法,遇到 linear regression problem 需要将实验数据 fit by a straight line。

plot : 绘图

naught:零

aside:题外话

假设 x 坐标是 exact (已知的),independent variable

y 坐标是 noisy data,dependent variable

这里学习用 Matrix 的方法解决这个问题。

设 直线方程为:y = \beta_0 + \beta_1 x

因此我们有,y_1 = \beta_0 + \beta_1x_1 ,\cdots, y_n = \beta_0 + \beta_1x_n

因此有矩阵,

\begin{pmatrix}y_1\\y_2\\ \vdots \\ y_n\end{pmatrix}=\begin{pmatrix}  1 &  x_{1} \\\ 1 &  x_{2} \\ \vdots& \vdots  \\ 1 &  x_{n}  \end{pmatrix} \begin{pmatrix}\beta_0\\\beta_1 \end{pmatrix}

 该 Ax = b 的问题有超过未知量的个数的方程,因此被称为 overdetetmined。

Ax = b , b 在 A矩阵的 Column Space 中(思考一下,其实 b 本应该就是 A矩阵中的列向量的 线性组合)

(但因为是 overdetermined,因此不可能得到一个固定的结果。换言之,b向量不在 A矩阵的 Col 中!)

那么我们要做的就是将 b 向量正交投影到 A 的 Col Space 上。

首先,我们的目标是使得方程成立,一开始 Ax \neq b, 因为 b 向量不在 Col(A)上,因此方程无解。

由于 b = b_{proj_ {Col(A)} } + (b -  b_{proj_ {Col(A)} } )

因为是正交投影,所以 b_{proj_ {Col(A)} }跟 b -  b_{proj_ {Col(A)} } 正交,也就是b -  b_{proj_ {Col(A)} } 与 Row(A^\rm T)正交,所以其属于 Null(A^\rm T)

所以,只需要左右同左乘矩阵 A^{\rm T}, 即可使上面的方程成立,也就是,

A^ \rm T A x =A^ \rm T b

这个方程也被称为 Normal Equation 

后面我们需要求出一个将 向量b 转换到 Col(A)空间,也就是 Ax 上的矩阵,因此将方程式左边变换为 Ax =

很显然,我们不能直接同时左乘 (A^ \rm T)^{-1}, 因为 A 不是方阵,不可逆。因此有下面的变换方法:

==>  x =(A^ \rm T A )^{-1}A^ \rm T b  

==>A x =A (A^ \rm T A )^{-1} A^ \rm T b

因此,projection matrix 就是A (A^ \rm T A )^{-1} A^ \rm T

相关文章

网友评论

      本文标题:Week 3-7

      本文链接:https://www.haomeiwen.com/subject/zifnwhtx.html