美文网首页
小批量梯度下降算法

小批量梯度下降算法

作者: 爱吃鱼的夏侯莲子 | 来源:发表于2020-02-09 09:49 被阅读0次

批量梯度下降是每一次迭代中对所有样本求和后求梯度项,随机梯度下降是对每一个样本求梯度项,小批量梯度下降介于两者之间。

小批量梯度下降取的样本数一般在2-100之间:
例如样本总数m=1000,每次取样本b=10:

重复 {
  for i = 1,11,21,...,991 {
    \theta_j:=\theta_j−\alpha \frac{1}{10}\sum_{k=i}^{i+9}(h_\theta(x^{(k)})-y^{(k)})x_j^{(k)}
  }
}

一次计算多个样本的优点是,多个样本能够以矢量化的方式进行,能够多个样本并行化处理,又不至于对所有样本求和那个耗费计算成本。
在某些情况下,小批量梯度下降的速度会优于随机梯度下降,但是在选择小批量样本数量b时会耗费一些时间。

转载自:
https://codeeper.com/2020/02/08/tech/machine_learning/mini_batch_gradient_descent.html

相关文章

网友评论

      本文标题:小批量梯度下降算法

      本文链接:https://www.haomeiwen.com/subject/yeaixhtx.html