美文网首页
线性回归 及 梯度下降

线性回归 及 梯度下降

作者: lilicat | 来源:发表于2019-01-22 18:19 被阅读0次

    重点:

    1 线性回归定义

    2 cost function  损失函数

    3 梯度下降


    线性回归(Linear Regression)

    注意!!!

    多变量线性回归一定要做特征归一化(Feature scaling)

    常用方法

    x^* = \frac{x-min}{max - min}


    方法:

    线性回归属于监督学习,因此跟监督学习的过程思路一致,先根据已知label和数据拟合出线性模型。然后根据此模型可以预测其他数据。在训练过程中,检验模型好坏的标准就是损失函数。损失函数越小,模型的拟合程度越高。

    线性回归模型:

    h_{\theta } (x) =\sum_{i=0}^N(\theta^i*x^i)

    xN维特征,\theta N维特征权重,h_{\theta } (x)为预测值(hypothesis)


    损失函数(cost function)

    cost function: 模型评价标准(并非唯一标准,当前部分损失函数只考虑了模型拟合度,没有考虑模型复杂度),cost function越小,说明拟合训练数据拟合的越好。

    cost function公式:

    J(\theta )  = \frac{1}{2m} \sum_{i=1}^M (h_{\theta } (x^i )-y^i )^2                

    其中:

    M为训练集的数量,J(\theta )为损失函数。


    梯度下降(Gradient Descent)

    梯度下降能够求出一个函数的最小值;

    线性回归需要求出,使得cost function最小;

    因此我们能够对cost function运用梯度下降,即将梯度下降与线性回归进行整合。

    重复迭代下面公式,直至收敛:

    
\theta_j := \theta_j -\alpha \frac{ \partial}{\partial\theta_j} J(\theta)

    即为:

    相关文章

      网友评论

          本文标题:线性回归 及 梯度下降

          本文链接:https://www.haomeiwen.com/subject/dwkrjqtx.html