美文网首页
一元线性回归——最小二乘法

一元线性回归——最小二乘法

作者: 耳朵和爪子 | 来源:发表于2017-06-17 07:57 被阅读247次

从只含一个自变量X的情况开始,成为一元线性回归。假定回归模型为
Y=b0+b1X+e
b0,b1为未知参数,b0为常数项或截距,b1为回归系数,e为随机误差。实际工作中,也常使用变量变换法。即在散点图与直线趋势差距较大时,设法对自变量乃至因变量进行适当的变换,使变换后的散点图更加接近与直线。这样对变化后的新变量进行线性回归分析,再回到原变量。
假定Y = b0+b1X+e
л和э分别为x和y的算术平均,故可以改写为Yi=β0+β1(Xi-л)+ei (i = 1,....,n)
其关系是β0=b0+b1л,β1=b1,故如估计了β0和β1,可以得到b0和b1的估计。
当X=Xi处取值为Yi,估计值我们有Γ表示,这样我们就有偏离Yi-Γ,我们当然希望偏离越小越好。衡量这种偏离大小的一个合理的单一指标为他们的平方和(通过平方去掉符号的影响,若简单求和,则正负偏离抵消了)

最优,即导数等于0.

我们将这个平方和求导,且认定该导数为0,得到的β0,β1,使得偏离最小。

用线性代数的思想就是,假定输入数据存在矩阵X中,而回归系数存放在向量w中。那么对于给定的数据X1,预测结果将会通过Y1=(X.transpose)w给出。偏差的平方为


Paste_Image.png

如果对w求导,得到


Paste_Image.png

为求最优,令其等于0,则

Paste_Image.png

上述公式中包含


Paste_Image.png

因此这个方程只在逆矩阵存在的情况使用。因为矩阵的逆矩阵可能不存在,因此必须要在代码中对此作出判断。

用python进行代码的实现

from numpy import *
def loadDataSet(filename):
    numFeat = len(open(filename).readline().split(','))-1
    datMat = []; labelMat = []
    fr = open(filename)
    for line in fr.readlines():
        lineArr = []
        curLine = line.strip().split(',')
        for i in range(numFeat):
            lineArr.append(float(curLine[i]))
        datMat.append(lineArr)
        labelMat.append(float(curLine[-1]))
    return datMat,labelMat
def standRegres(xArr,yArr):
    xMat = mat(xArr);yMat = mat(yArr).T
    xTx = xMat.T*xMat
    if linalg.det(xTx) == 0.0:
        print("This matrix is singular, can not inverse")
        return
    ws = xTx.I * (xMat.T*yMat)
    return ws

xArr,yArr = loadDataSet('gmvusers3.csv')
print("xArr is ",xArr)
print("yArr is ",yArr)
ws = standRegres(xArr,yArr)
print(ws)
xMat = mat(xArr)
yMat = mat(yArr)
yHat =xMat*ws

import matplotlib.pyplot as plt
fig = plt.figure()
ax = fig.add_subplot(111)
ax.scatter(xMat[:,1].flatten().A[0],yMat.T[:,0].flatten().A[0])

xCopy = xMat.copy()
xCopy.sort(0)
yHat=xCopy*ws
ax.plot(xCopy[:,1],yHat,'b-')
print(corrcoef(yHat.T,yMat))
plt.show()

感谢高斯,或者勒让德,历史无法评说,但这种思想是一种用于数据拟合的霸气方法。这个事情的精妙之处就是将数理统计和矩阵完美的结合在了一起,通过矩阵对最小二乘法的描述,为数据拟合找到了简单粗暴的路径,线性回归。

下面简要列出梯度下降法和最小二乘法的主要区别

梯度下降法 最小二乘法
必须指定learning rate 无需指定learning rate
必须训练多次 无需训练多次
必须可逆XTX
对多维度数据效果好 多维度数据效果差(维度>1000)

相关文章

  • 线性模型—— 一元线性回归算法推导

    目录 一、线性模型原理 二、线性回归与最小二乘法 三、一元线性回归公式推导 四、总结 线性模型原理:给定d个属性x...

  • 线性回归以及logistic回归公式

    线性回归 最小二乘法: Logistic回归 :

  • 机器学习

    监督学习: 分类与回归 线性回归: 线性模型:最小二乘法,岭回归,lasso回归 解决线性问题...

  • 23高通量测序-线性模型之线性回归

    线性模型之线性回归 线性回归(Linear Regression)主要思想 使用最小二乘法(least-squar...

  • 算法概述-02

    1.逻辑回归和线性回归的联系和区别: 逻辑回归和线性回归的都是广义的线性回归。 线性回归是根据最小二乘法来建模,逻...

  • 实验课之神奇的梯度下降算法

    之前写过的一元线性回归的基本原理一文中提及到梯度下降算法,我们用最小二乘法配合梯度下降算法来分析了线性回归的数学原...

  • 2020-02-14

    线性回归:线性回归分为一元线性回归和多元线性回归,一元线性回归用一条直线描述数据之间的关系,多元回归是用一条曲线描...

  • Matlab一元/多元回归(后续会有更新)

    一元线性回归&一元非线性回归 多元回归/逐步回归 多元回归 先画散点图,看有没有线性性质,再决定能不能用多元线性回...

  • 线性回归

    损失函数介绍简单线性回归最小二乘法梯度下降求解线性回归评价指标多元线性回归链接 损失函数介绍 损失函数描述了单个样...

  • 利用 python 进行线性回归

    线性回归也被称为最小二乘法回归(Linear Regression, also called Ordinary L...

网友评论

      本文标题:一元线性回归——最小二乘法

      本文链接:https://www.haomeiwen.com/subject/gzjvqxtx.html