前面的章节学的是降维、奇异值分解以及主成分分析的大致内容,本篇文章则开始更加详细的介绍这背后的数学原理,首先要学的就是投影(projection)。
概念
投影其实就是一种可以最小化一个点与一个子空间距离的线性代数算法,现在我们假设是一个N维空间里的某点:
,
是这个空间的一个子空间:
。现以二维空间为例说明这个影到底是怎么投的:
若,如下图:
![](https://img.haomeiwen.com/i14803374/d296f26209bcbcc6.png)
通过将投影到由
(x轴)和
(y轴)定义的空间上,很快我们就可以得到相应的坐标(coordinate):
也就是即为
的坐标。
现在定义一个新的子空间,这个空间呢是由一个满足
且
的点定义的。既然
在这个空间上的投影就是
上到
最近的那个点,也就说我们需要计算出可以最小化
和
之间距离的
值。
而在线性代数中我们已知,如果两个向量相交,那么其乘积则为0,因此:
也就是:
所以:
另外,上述公式中的点的意思是:
,举例说明:
mypar(1,1)
plot(c(0,4),c(0,4),xlab="Dimension 1",ylab="Dimension 2",type="n")
arrows(0,0,2,3,lwd=3)
abline(0,0.5,col="red",lwd=3) #if x=2c and y=c then slope is 0.5 (y=0.5x)
text(2,3," Y",pos=4,cex=3)
y=c(2,3)
v=c(2,1)
cc = crossprod(v,y)/crossprod(v)
segments(v[1]*cc,v[2]*cc,y[1],y[2],lty=2)
##segments(x0,y0,x1,y1):在(x0,y0)和(x1,y1)之间画一条线段
text(v[1]*cc,v[2]*cc,expression(hat(Y)),pos=4,cex=3)
![](https://img.haomeiwen.com/i14803374/9672055330ef9ee9.png)
样本均值
假设,而
的定义如下:
在这个空间里,的所有元素都是相同的数字,所以投影到这个空间上每一个维度上对应的坐标都该是相同的。那这种情况下该如何最小化
和
呢?
已知:
因此:
所以说,样本均值其实也是一种投影。
线性回归
除了均值以外,线性回归同样是一种投影,从投影的角度理解,线性回归其实就是:
假设我们的数据是一个N维的向量,且线性回归模型为:
,求使得
和如下定义的子空间
之间的距离最小的
和
究竟是多少:
其中:
除此之外,矩阵
是
,在
中的任何一个点都可以被写成:
。
正交投影的多维度版本公式是(这个公式咋推导的。。。
):
再加上我们之前学过:
因此向中的投影就是:
阅读原文请戳
网友评论