1. 梯度下降
以最小二乘为例, 损失函数为:
对 求导得到:
表示称向量形式如下:
对 的更新如下:
2. mini-batch梯度下降
每次随机选取 个观测值来更新权重:
这样可以看做每次都用一个不同的损失函数:
3. 随机梯度下降 (SGD)
每次通过一个观测值 来更新权重:
这样可以看做每次都用一个不同的损失函数:
4. 总结
从上面可以看出不同的更新权重的方式其实可以看做选取了不同的损失函数
ref:
以最小二乘为例, 损失函数为:
对 求导得到:
表示称向量形式如下:
对 的更新如下:
每次随机选取 个观测值来更新权重:
这样可以看做每次都用一个不同的损失函数:
每次通过一个观测值 来更新权重:
这样可以看做每次都用一个不同的损失函数:
从上面可以看出不同的更新权重的方式其实可以看做选取了不同的损失函数
ref:
本文标题:ML中的梯度下降
本文链接:https://www.haomeiwen.com/subject/nzfwmqtx.html
网友评论