美文网首页
线性回归 及 梯度下降

线性回归 及 梯度下降

作者: lilicat | 来源:发表于2019-01-22 18:19 被阅读0次

重点:

1 线性回归定义

2 cost function  损失函数

3 梯度下降


线性回归(Linear Regression)

注意!!!

多变量线性回归一定要做特征归一化(Feature scaling)

常用方法

x^* = \frac{x-min}{max - min}


方法:

线性回归属于监督学习,因此跟监督学习的过程思路一致,先根据已知label和数据拟合出线性模型。然后根据此模型可以预测其他数据。在训练过程中,检验模型好坏的标准就是损失函数。损失函数越小,模型的拟合程度越高。

线性回归模型:

h_{\theta } (x) =\sum_{i=0}^N(\theta^i*x^i)

xN维特征,\theta N维特征权重,h_{\theta } (x)为预测值(hypothesis)


损失函数(cost function)

cost function: 模型评价标准(并非唯一标准,当前部分损失函数只考虑了模型拟合度,没有考虑模型复杂度),cost function越小,说明拟合训练数据拟合的越好。

cost function公式:

J(\theta )  = \frac{1}{2m} \sum_{i=1}^M (h_{\theta } (x^i )-y^i )^2                

其中:

M为训练集的数量,J(\theta )为损失函数。


梯度下降(Gradient Descent)

梯度下降能够求出一个函数的最小值;

线性回归需要求出,使得cost function最小;

因此我们能够对cost function运用梯度下降,即将梯度下降与线性回归进行整合。

重复迭代下面公式,直至收敛:


\theta_j := \theta_j -\alpha \frac{ \partial}{\partial\theta_j} J(\theta)

即为:

相关文章

网友评论

      本文标题:线性回归 及 梯度下降

      本文链接:https://www.haomeiwen.com/subject/dwkrjqtx.html