梯度下降方法

作者: 孙有涵 | 来源:发表于2019-07-03 16:50 被阅读0次

    1.批量梯度下降
    每次遍历所有的样本对进行梯度更新,迭代次数较少,在样本数量较多的训练速度慢。
    2.随机梯度下降
    每次只是用一个样本,更新速度慢,可能会收敛到局部最优。
    3.小批量梯度下降
    设置batch__size,结果相对精确,速度相对快。

    相关文章

      网友评论

        本文标题:梯度下降方法

        本文链接:https://www.haomeiwen.com/subject/tedchctx.html