利用全部训练样本计算loss function,(沿θj最陡方向)更新一个参数θj 化简更新θj的式子
批量梯度下降BGD:迭代指定次数次;see all samples
BGD随机梯度下降(stochastic gradient descent):一次只看一个sample
SGD 在样本数目很多时SGD更快批量梯度下降BGD:迭代指定次数次;see all samples
BGD随机梯度下降(stochastic gradient descent):一次只看一个sample
SGD 在样本数目很多时SGD更快本文标题:梯度下降(BGD)和随机梯度下降(SGD)
本文链接:https://www.haomeiwen.com/subject/tfjxgxtx.html
网友评论