美文网首页
小批量梯度下降算法

小批量梯度下降算法

作者: 爱吃鱼的夏侯莲子 | 来源:发表于2020-02-09 09:49 被阅读0次

    批量梯度下降是每一次迭代中对所有样本求和后求梯度项,随机梯度下降是对每一个样本求梯度项,小批量梯度下降介于两者之间。

    小批量梯度下降取的样本数一般在2-100之间:
    例如样本总数m=1000,每次取样本b=10:

    重复 {
      for i = 1,11,21,...,991 {
        \theta_j:=\theta_j−\alpha \frac{1}{10}\sum_{k=i}^{i+9}(h_\theta(x^{(k)})-y^{(k)})x_j^{(k)}
      }
    }

    一次计算多个样本的优点是,多个样本能够以矢量化的方式进行,能够多个样本并行化处理,又不至于对所有样本求和那个耗费计算成本。
    在某些情况下,小批量梯度下降的速度会优于随机梯度下降,但是在选择小批量样本数量b时会耗费一些时间。

    转载自:
    https://codeeper.com/2020/02/08/tech/machine_learning/mini_batch_gradient_descent.html

    相关文章

      网友评论

          本文标题:小批量梯度下降算法

          本文链接:https://www.haomeiwen.com/subject/yeaixhtx.html