美文网首页
【2019-01-05】梯度下降、随机梯度下降、批处理

【2019-01-05】梯度下降、随机梯度下降、批处理

作者: BigBigFlower | 来源:发表于2019-01-27 20:55 被阅读0次

训练数据集\left\{ x_{1},y_{1}  \right\}

设需要拟合的函数:

h=\theta x====找出\theta ,令h逼近y。

梯度下降原理:

定义损失函数:J=\frac{1}{2n} \sum_{i=1}^n\vert h^i-y ^i\vert  ^2

n训练样本个数

偏导:\frac{\sigma J (\theta )}{\sigma \theta} =2*\frac{1}{2n}\sum_{i=1}^n\vert h-y\vert x

最小化损失函数,\theta 负梯度方向更新

批量梯度下降法(Batch gradient descent):每次迭代使用所有的样本,全局优化。

随机梯度下降法(Stochastic gradient descent):每次迭代使用一组样本,从样本中随机抽出一组,训练后按梯度更新一次,然后再抽取一组,再更新一次,在样本量及其大的情况下,可能不用训练完所有的样本就可以获得一个损失值在可接受范围之内的模型了。

小批量梯度下降(Mini-batch gradient descent):每次迭代使用b组样本,每次从样本中随机抽取一小批进行训练,而不是一组。

原博地址:https://www.cnblogs.com/pinard/p/5970503.html 原博地址:https://www.cnblogs.com/pinard/p/5970503.html 原博地址:https://www.cnblogs.com/pinard/p/5970503.html

相关文章

网友评论

      本文标题:【2019-01-05】梯度下降、随机梯度下降、批处理

      本文链接:https://www.haomeiwen.com/subject/azilrqtx.html