美文网首页
线性回归

线性回归

作者: samychen | 来源:发表于2017-07-02 21:14 被阅读0次

  线性回归假设特征和结果满足线性关系。 其实线性关系的表达能力非常强大,每个特征
对结果的影响强弱可以有前面的参数体现,而且每个特征变量可以首先映射到一个函数,然
后再参与线性计算。这样就可以表达特征与结果之间的非线性关系。

  我们用 X1, X2..Xn 去描述 feature 里面的分量,如n=2时估计函数表示为:


这里θ为学习器参数,令x0为1,则估计函数可表示为:


评估学习器模型的好坏需要评估参数θ的好坏,一般称这个函数为损失函数或错误函数J(θ)

如何调整θ以使得J(θ)取最小值就是我们评估的标准。取最小值的常见方法包括最小二乘法和梯度下降法。

最小二乘法与梯度下降法的关系?

  最小二乘法的目标:求误差的最小平方和,对应有两种:线性和非线性。线性最小二乘的解是closed-form即

而非线性最小二乘没有closed-form,通常用迭代法求解。

  迭代法:即在每一步update未知量逐渐逼近解,可以用于各种各样的问题(包括最小二乘),比如求的不是误差的最小平方和而是最小立方和。
  梯度下降是迭代法的一种,可以用于求解最小二乘问题(线性和非线性都可以)。高斯-牛顿法是另一种经常用于求解非线性最小二乘的迭代法(一定程度上可视为标准非线性最小二乘求解方法)。
  还有一种叫做Levenberg-Marquardt的迭代法用于求解非线性最小二乘问题,就结合了梯度下降和高斯-牛顿法。

  所以如果把最小二乘看做是优化问题的话,那么梯度下降是求解方法的一种, 是求解线性最小二乘的一种,高斯-牛顿法和Levenberg-Marquardt则能用于求解非线性最小二乘。

最小二乘法LMS

  使用一些初始θ参数值,然后每次更新theta值使得J(theta)最小,可以使用梯度下降算法:

使用初始θ每次更新θ,式子中α为步长,不能太大也不能太小,太大的话可能会越过最低点,甚至可能无法收敛,下一次迭代又移动了一大步,越过一次,又越过一次,一次次越过最低点,直到你发现实际上离最低点越来越远,所以,如果α太大,它会导致无法收敛,甚至发散;α也不能太小,α太小的话,下降会很慢,示意图如下:



如果θ0一直为 0, 则theta1与J的函数为:



如果有θ0与θ1都不固定,则theta0、theta1、J 的函数为:

注意:如果是线性回归,则损失函数J(θ)的形状一定是碗状的,即只有一个最小值。


矩阵求导

推导过程参考https://wenku.baidu.com/view/cee1ff5e5727a5e9846a610a.html

相关文章

  • 机器学习实战——回归

    本章内容】 线性回归 局部加权线性回归 岭回归和逐步线性回归 例子 【线性回归】 wHat = (X.T*X).I...

  • 线性回归模型

    参考:1.使用Python进行线性回归2.python机器学习:多元线性回归3.线性回归概念 线性回归模型是线性模...

  • 通俗得说线性回归算法(二)线性回归实战

    前情提要:通俗得说线性回归算法(一)线性回归初步介绍 一.sklearn线性回归详解 1.1 线性回归参数 介绍完...

  • 第一次打卡

    线性回归主要内容包括: 线性回归的基本要素线性回归模型从零开始的实现线性回归模型使用pytorch的简洁实现线性回...

  • 2020-02-14

    线性回归:线性回归分为一元线性回归和多元线性回归,一元线性回归用一条直线描述数据之间的关系,多元回归是用一条曲线描...

  • 逻辑回归和线性回归对比

    简单说几点 线性回归和逻辑回归都是广义线性回归模型的特例。他们俩是兄弟关系,都是广义线性回归的亲儿子 线性回归只能...

  • 算法概述-02

    1.逻辑回归和线性回归的联系和区别: 逻辑回归和线性回归的都是广义的线性回归。 线性回归是根据最小二乘法来建模,逻...

  • 【机器学习实践】有监督学习:线性分类、回归模型

    线性模型 为线性模型 分类和回归的区别 分类:离散回归:连续本文主要关注线性回归模型 常用线性回归模型类型 OLS...

  • 统计学习基础复习浓缩版

    1.简单线性回归 2.多元线性回归 3.多项式回归 4.广义线性回归(含逻辑斯谛回归) 广义线性回归模型通过拟合响...

  • Linear Regression

    在线性回归模型中,我们分为单元线性回归和多元线性回归(Multivariate Linear Regression...

网友评论

      本文标题:线性回归

      本文链接:https://www.haomeiwen.com/subject/nmdocxtx.html