美文网首页机器学习Machine Learning & Data Analysis
最小二乘法和梯度下降法的理解

最小二乘法和梯度下降法的理解

作者: 在做算法的巨巨 | 来源:发表于2018-07-25 20:08 被阅读5次
  • 最小二乘法

在线性回归中,听的最多的应该算是最小二乘法了。最小二乘法在具体实现过程中保留核心思想的同时,会在算法上进行不同程度的改进,因此,最小二乘法有很多演变体,例如:递推最小二乘法,加权最小二乘法。这些都会根据实际情况而变化。本文,主要讲一下我对最小二乘法的理解。
所谓“最小二乘法”,least squares method,从字面上看,least就是一个最优化问题的体现,因此,最小二乘法是一个最优化问题(optimization problem)。

    概念

  • 什么是回归

我的理解:当自变量和因变量存在某种函数关系可以用来近似描述时,我们把这种行为叫做回归。而这个函数叫做回归函数。

  • 回归的意义

回归可以帮助我们对因变量进行预测,根据以往的数据和回归函数,我们能大致预测接下来的因变量的走势。这个在股市上用的很多,在一些时间序列问题上也应用广泛。

我们假设我们有一组数,

import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
import random

x=np.linspace(0,10,10)
random.seed()
y=np.linspace(5,15,10)+[random.uniform(-5,5) for _ in range(10)]
print(y)
plt.scatter(x,y)
plt.show()

生成了一组随机数,然后我们想用一种函数来描述横轴x和纵轴y的关系,我们先假设是线性关系,hypothesis function就为H(x)=\theta_0+\theta_1*x
如果我们得到了\theta_0, \theta_1,那么我们的回归函数就得以确定。通过x就可以计算出对应的y。

如何得到H(x)
要让我们的假设函数对真实数据描述性更强,也就是假设函数更接近真实数据的分布。那么他们两者之间的误差就应该达到最小。
于是,我们得到cost function,
J(\theta_0, \theta_1)=\frac{1}{2m}\sum_{i=1}^m(H(x^{(i)})-y^{(i)})^2
对每个离散值和计算值进行误差平方再求和计算总误差。
这时候,我们目标就是计算:
minimize J(\theta_0, \theta_1)
以上就是最小二乘法的概念。

  • 梯度下降法

最小二乘法是一种优化问题的想法,梯度下降法是实现这种优化想法具体的一种求解方法。
在最小二乘法问题中求解minimize J(\theta_0, \theta_1)过程中,如果是线性问题,我们可以尝试用矩阵也就是normal equation。这里只需要确保(x^Tx)^{-1}是存在的。当然这也是矩阵计算的一个局限性。
正常比较万能的方法,就是梯度下降法(不要说他慢)。
梯度下降法的本质就是迭代。通过迭代更新\theta值,逐渐找到J(\theta_0,\theta_1)的最小值。

从上图可以发现,纵轴的J值随着横轴迭代次数的增加,逐渐变小。

    算法思路

我们已知cost function J(\theta_0, \theta_1)=\frac{1}{2m}\sum_{i=1}^m(H(x^{(i)})-y^{(i)})^2
我们的目标函数是minimize J(\theta_0, \theta_1)
因此,让J(\theta_0, \theta_1)分别对 \theta_0, \theta_1求偏导。
得到,
\frac{\partial J(\theta_0, \theta_1)}{\partial \theta_0} = \frac{1}{m}\sum_{i=1}^m(x^{(i)})-y^{(i)})
\frac{\partial J(\theta_0, \theta_1)}{\partial \theta_1} = \frac{1}{m}\sum_{i=1}^m(x^{(i)})-y^{(i)})x_i
\theta进行更新:
\theta_0: \theta_0-\alpha \frac{\partial J(\theta_0)}{\partial \theta_0}
\theta_1: \theta_1-\alpha \frac{\partial J(\theta_1)}{\partial \theta_1}

thetaSet=np.array(thetaSet)
J=np.zeros((50,50))
theta0Max,theta0Min=max(thetaSet[:,0]),min(thetaSet[:,0])
theta1Max,theta1Min=max(thetaSet[:,1]),min(thetaSet[:,1])
theta0=np.linspace(0,1.8,50)
theta1=np.linspace(0,1.8,50)
T0,T1=np.meshgrid(theta0,theta1)
for i in range(50):
    for j in range(50):
        J[i,j]=sum((theta0[i]+theta1[j]*x-y)**2)/len(x)
plt.contour(T0,T1,J)
plt.scatter(thetaSet[:,0],thetaSet[:,1])
plt.ylabel('theta 1')
plt.xlabel('theta 0')
plt.scatter(thetaSet[-1,0],thetaSet[-1,1],c="r",s=300,alpha=0.5)
plt.show()

在这里五彩线是梯度线,我们可以看出,我们初始\theta为[0,0],然后\theta逐渐向最小cost逼近,最后到达[1.6,1.6]的位置。

最终线性拟合

在梯度下降法里,我们还会有增量梯度下降法等等,但都是为了更快实现逼近而设计的,这个根据具体需求具体分析。

相关文章

  • 线性回归求解中梯度下降法与最小二乘法的比较

    在线性回归算法求解中,常用的是最小二乘法与梯度下降法,其中梯度下降法是最小二乘法求解方法的优化,但这并不说明梯度下...

  • 损失函数、最小二乘法、梯度下降法

    损失函数与最小二乘法的区别?最小二乘法与梯度下降法区别? 之前一直认为损失函数就是最小二乘法。然后最小二乘法与梯度...

  • 最小二乘法曲线拟合

    除了梯度下降法去拟合曲线,最小二乘法也是另一个方法。和梯度下降不断迭代求出极值不同的是,最小二乘法是直接求导计算出...

  • 2021-03-24掌握回归模型的评估及超参数调优

    1.参数与超参数 参数:使用最小二乘法或者梯度下降法等最优化算法优化出来的数, 超参数:无法使用最小二乘法或者梯度...

  • (5)回归算法

    回归的模型均可抽象为多元线性回归,其优化方法一般为最小二乘法与梯度下降法等。一般选择使用梯度下降法求解,因为最小二...

  • PyTorch基础知识

    一. 常用优化方法 最小二乘法,牛顿法,拟牛顿法,梯度下降法 二. tensor和numpy array的相互转换...

  • 梯度下降法

    梯度下降法 本文主要是为了讲解 梯度下降法 的原理和实践,至于什么是梯度下降法,他能做什么,相信百度一下你就都知道...

  • 2019-11-01第二课二周优化算法

    指数加权平均: 动量梯度下降法: RMSprop:和动量梯度下降法相似 adam优化算法:将动量梯度下降法和RMS...

  • 2020-08-19--梯度下降法01

    梯度下降法简介 多元线性回归中的梯度下降法 随机梯度下降法 梯度下降法 的调试 1.梯度下降法简介 不是一个机器学...

  • 2019-03-17神经网络——optimizer

    神经网络优化算法,通常有三种:小批量梯度下降法,随机梯度下降法和批量梯度下降法。 小批量梯度下降法 适用于训练数据...

网友评论

    本文标题:最小二乘法和梯度下降法的理解

    本文链接:https://www.haomeiwen.com/subject/gitemftx.html