前言
一元线性回归只是让我们好理解回归这个概念。在实际中特征很少说只有一个。所有就有多元线性回归。
概念
与一元线性回归一样,多元线性回归自然是一个回归问题。只不过一元线性回归的方程可以写成。
y=ax+b
多元线性回归是
y=a1x1+a2X2+a3X3+...+anXn+b
相当于我们高中学的一元一次方程,变成了n元一次方程。因为y还是那个y。只是特征增多了。
模型的训练
多元线性回归的训练方式与一元线性回归方式基本相同。
1、设置一个损失函数。
2、想办法让润湿函数最小。
image.png
其中
image.png
每一个i对应一行的数据。
我们只需要找到合适的。
image.png
参数即可。
方便计算
为了方便算,我们把b换一下。
image.png
那么可以组成一个待解参数矩阵。
image.png
然而我们的输入X对应每个特征也可以组成一个矩阵。
image.png
image.png
于是我们很快发现 X的每一行与O不同维。O的维度是1*n+1 (从0开始数起的)
X的一行的维度是是1Xn
那么我们只有在X矩阵加一列。那么加什么不会改变O1的值呢,那就是1了。
那么我们X矩阵就变成了
image.png
大家都知道矩阵的乘法是行*列然后每个元素想加。这里的yi就等于Xi 与 O的点乘,因为O是一个行向量,所以这里要转置成列向量。
image.png
(备注:numpy.array 中的dot方法会自动转换行、列向量,但是这里说原理要说清楚)。
那么可以得到
image.png
其中Xb就是X加一列的结果。O是一个列向量。所得到的y的预测值也是一个向量。
损失函数
我们再看损失函数,长这样。
image.png
其中的y是一个1 X m的向量,其中每一元素代表是一个标签。y预测也是一个1 * m的向量。这个公式计算每一个样本的误差然后求和。那么我们可以直接转换成矩阵的计算。
我们可以改为
image.png
我们只需要找到 合适的O就可以了。
image.png
找参数
我们只需要找到合适的cita就可以了。
正规方程解
正规方程解其实就是跟简单线性回归一样求偏导数然后求极值点。这里多元的那就是求偏导数然后求极值点,但是多元的好麻烦。这里直接给出公式比较合适。
image.png这个知道仔细推导其实意义并不大,因为我们在实际算法中不会去使用这个。我们都知道矩阵的乘法时间复杂度是O(n3)有很多人做了优化也没有降到O(n2),如果你能降低0.1个点就不得了。所以说这是一个世界性难题。大家都知道我们机器学习其实计算量是很大的,那么怎么能让我们的计算变的快一点只有改变我们的策略。那就是梯度下降。
使用求正规方程解寻找参数代码
def fit_normal(self,X_train,y_train):
assert X_train.shape[0] == y_train.shape[0],"你要一一对应吧"
X_b = np.hstack([np.ones((len(X_train),1)),X_train])
self._theta=np.linalg.inv(X_b.T.dot(X_b)).dot(X_b.T).dot(y_train) #就是那个公式
self.interception_=self._theta[0] #第0项就是那个截距b
self.coef_=self._theta[1:] #后面都是系数
梯度下降
在简单线性回归的时候说了梯度下降的思路。其实就是一种求极值的一种思路,就是在模型上随机选一个点,然后向着梯度方向以一定步长挪动。最终能到达极值点。
image.png
在简单线性回归中就是x沿着x的导数这个梯度进行下降。
可以把loss函数定义一下
那么两个参数的变化是
image.png
同样的多元线性回归是一样的。其中参数都是cta
可以定义梯度
image.png
那么每次更新就是
image.png
那么关键就是求梯度这个矩阵。
image.png
可以看一下。
image.png
注意这里的X 是在第一列加了一个全1项的。
image.png
那么梯度矩阵可以写为
image.png我们会发现一个问题就是m越大,梯度就越大,梯度怎么会跟m(样本的数量有关系呢,这显然不合理)。所以损失函数应该 加一个1/m这个常数来抵消这个影响。
image.png
那么梯度就变成了。
image.png
看代码吧
def J(theta,X_b,y):
"""
定义损失函数
"""
try:
return np.sum((y- X_b.dot(theta))**2)/len(X_b) #=损失函数
except:
return float('inf')
def dJ(theta,X_b,y):
"""
求偏导,计算梯度
"""
res = np.empty(len(theta))
res[0]=np.sum(X_b.dot(theta)-y)
for i in range(1,len(theta)):
res[i]=(X_b.dot(theta)-y).dot(X_b[:,i])
return res * 2/len(X_b)
def gradient_descent(X_b,y,initial_theta,eta,n_iters=1e4,epsilon=1e-8):
theta=initial_theta
i_iter=0
while i_iter < n_iters:#防止梯度不停的跳动,过了一定轮数就停止。
gradient = dJ(theta,X_b,y)
last_theta= theta
theta=theta - eta * gradient
if(abs(J(theta,X_b,y)-J(last_theta,X_b,y))<epsilon):# 不一定非要是0,接近0就可以了。
break
i_iter +=1
return theta
网友评论