梯度下降目标
对于代价函数:
需要找到最小值时对应的 θ0和 θ1,即是我们期望的拟合的最好的线性函数。
找到这个最小值的方法即使梯度下降。
梯度下降的计算方法
在沿着坡度下降的方向,以某种步伐α向前迭代,在多个变量情况下,需要同时更新变量。
线性回归的梯度下降
对于线性预测函数:hθ(x) = θ0 + θ1x
以及其代价函数:
偏导数的计算推导为:
=
=
=
=
=
=
=
=
=
=
梯度下降的算法为:
对于代价函数:
需要找到最小值时对应的 θ0和 θ1,即是我们期望的拟合的最好的线性函数。
找到这个最小值的方法即使梯度下降。
在沿着坡度下降的方向,以某种步伐α向前迭代,在多个变量情况下,需要同时更新变量。
对于线性预测函数:hθ(x) = θ0 + θ1x
以及其代价函数:
偏导数的计算推导为:
=
=
=
=
=
=
=
=
=
=
梯度下降的算法为:
本文标题:吴恩达机器学习笔记(2)- 梯度下降
本文链接:https://www.haomeiwen.com/subject/kfmboftx.html
网友评论