最小二乘拟合

作者: leotmc | 来源:发表于2018-12-20 13:12 被阅读2次

最小二乘的hypothesis为:h_\theta(x^{(i)})=\theta^Tx^{(i)} =\theta_0x_0^{(i)}+\theta_1x_1^{(i)}+\theta_2x_2^{(i)}+...+\theta_nx_n^{(i)}
其中x^{(i)}表示第i个样本,x_{j}^{(i)}表示x^{(i)}的第j个特征。
最小二乘的目标函数为:
J_{(\theta)}=\frac{1}{2}\sum_{i=1}^{m}{(y^{(i)}-\theta^Tx^{(i)})}^2
我们可以通过使\theta沿着其梯度方向进行更新来最小化目标函数。
目标函数对\theta的导数为:
\nabla_{\theta}J=-\sum_{i=1}^{m}(y^{(i)}-\theta^{T}x^{(i)})\cdot{{x^{(i)}}^{T}} =\sum_{i=1}^{m}(\theta^Tx^{(i)}-y^{(i)})\cdot{{x^{(i)}}^{T}}
注意:每一个x^{(i)}都是一个包含多个维度的向量
\theta进行更新可得:
\theta:=\theta-\alpha*\nabla\theta =\theta-\alpha*\sum_{i=1}^{m}(\theta^{T}x^{(i)}-y^{(i)})\cdot{{x^{i}}^{T}}
注意:这里我们使用:=表示赋值的意思,即在每一次迭代的时候,将新的计算得到的\theta赋值给之前的\theta


最小二乘拟合的概率解释
在这里,\hat{y}^{(i)}=\theta^Tx^{(i)}来表示hypothesis的计算结果,y^{(i)}表示真实的样本的target value,假设
\epsilon^{(i)}=\hat{y}^{(i)}-y^{(i)}\thicksim\mathcal N(0, \sigma^{2})
即hypothesiss与真实样本之间的偏差服从标准正太分布:
p(\epsilon^{(i)})=p(\hat{y}^{(i)}-y^{(i)}|x^{(i)};\theta)\thicksim\mathcal N(0,\sigma^{2})
进一步推倒可得:
p(\epsilon^{(i)}|x^{(i)};\theta) =\frac{1}{\sqrt{2\pi}\sigma}exp^{-\frac{(\epsilon^{(i)}-0)^2}{2{\sigma}^2}}
因为样本的标签值y^{(i)}是已知的,所以由上式可得:
p(\hat{y}^{(i)}|x^{(i)}\theta) =\frac{1}{\sqrt{2\pi}\sigma}exp^{-\frac{(\hat{y}^{(i)}-y^{(i)})^{2}}{2\sigma^{2}}} =\frac{1}{\sqrt{2\pi}\sigma}exp^{-\frac{(\theta^Tx^{(i)}-y^{(i)})^{2}}{2\sigma^{2}}}
m个样本的似然函数为:
L(\theta)=\prod_{i=1}^{m}p(\hat{y}^{(i)}|x^{(i)};\theta) =\prod_{i=1}^{m}\frac{1}{\sqrt{2\pi}\sigma}exp^{-\frac{(\theta^Tx^{(i)}-y^{(i)})^{2}}{2\sigma^{2}}}
对似然函数L(\theta)取对数可得:
\begin{equation} \begin{split} l(\theta)&=log(L(\theta))=log\prod_{i=1}^{m}p(\hat{y}^{(i)}|x^{(i)};\theta)\\ &=\sum_{i=1}^{m}log\biggl({p(\hat{y}^{(i)}|x^{(i)};\theta)}\biggr)\\ &=\frac{1}{\sqrt{2\pi}\sigma}\sum_{i=1}^{m}log(exp^{-\frac{(\theta^Tx^{(i)} -y^{(i)})^{2}}{2\sigma^{2}}})\\ &=-n\frac{1}{2}\sum_{i=1}^{m}(\theta^Tx^{(i)}-y^{(i)})^{2} \end{split} \end{equation}
其中n=\frac{1}{\sqrt{2\pi}\sigma^{3} },最大化对数似然函数l(\theta),即:
max\biggl(l(\theta)\biggr) =min\biggl(-l(\theta)\biggr) =min\biggl((\theta^Tx^{(i)}-y^{(i)})^{2}\biggr)
即从假设hypothesis的值与样本真实值之间的偏差服从标准正太分布,并使用最大似然估计,我们同样可以得到均方误差的目标函数。

相关文章

  • 最小二乘拟合

    最小二乘拟合 ​ 假设有一组实验数据(xi,yi),我们事先知道它们之间应该满足某函数关系: yi =...

  • 最小二乘拟合

    最小二乘的hypothesis为:其中表示第个样本,表示的第个特征。最小二乘的目标函数为:我们可以通过使沿着其梯度...

  • 最小二乘高斯拟合

    matlab_最小二乘法数据拟合_彭国民_新浪博客 matlab 曲线拟合小记 - 木lin木 - 博客园 [Ma...

  • 数值分析:多元线性拟合和一元非线性拟合

    前言 最小二乘线性拟合是常规操作,本文直接跨过。由于多元线性拟合和一元非线性拟合关系密切,故本文将其二放在一起讨论...

  • Python曲线拟合

    二项式曲线拟合 最小二乘法拟合

  • 机器学习|最小二乘法的概率解释

    在拟合数据时,为什么选择最小二乘来作为误差函数呢? 虽然不明白为什么,但是一直觉得很有道理的样子。最小二乘或平方差...

  • 数据_常用命令_Python

    打印计数器 单变量最小二乘(OLS)回归拟合 双对数坐标系下线性回归拟合画图(幂律函数) 纵轴对数坐标下线性回归拟...

  • python线性回归

    线性回归:通过已知数据拟合一个函数,用于预测未知数据。拟合标准OLS(最小二乘)。该方法在AI及统计领域有大量应用...

  • 矩阵: QR分解 && 最小二乘问题求解

    最小二乘问题分为线性最小二乘问题和非线性最小二乘问题;非线性最小二乘问题求解方法有高斯牛顿法,Levenberg-...

  • 深入理解卡尔曼滤波

    1. 最小二乘(LS)、加权最小二乘估计(WLS)、递推最小二乘(RLS) 观测方程![](http://late...

网友评论

    本文标题:最小二乘拟合

    本文链接:https://www.haomeiwen.com/subject/sljxkqtx.html