美文网首页
哲哲的ML笔记(六:多元梯度下降-特征缩放)

哲哲的ML笔记(六:多元梯度下降-特征缩放)

作者: 沿哲 | 来源:发表于2021-03-20 09:26 被阅读0次

为什么要特征缩放

多维特征问题的时候,我们要保证这些特征都具有相近的尺度
x_1:房屋的尺寸
x_2:房屋的数量
y:房屋价格
J(\theta)=\dfrac{1}{2m}\sum\limits_{i=1}^{m}(h_\theta( x^i)-y^i)^2
尺寸的值为 0-2000平方英尺,而房间数量的值则是0-5,以两个参数分别为横纵坐标,绘制代价函数的等高线图能,看出图像会显得很扁,梯度下降算法需要非常多次的迭代,来来回回才能收敛。

所有特征的尺度都尽量缩放到-1到1之间,代价函数会更⚪


最简单的方法是令:x_n=\frac{x_n-\mu_n}{\sigma_n},其中\mu_n 是平均值,\sigma_n是标准差

相关文章

网友评论

      本文标题:哲哲的ML笔记(六:多元梯度下降-特征缩放)

      本文链接:https://www.haomeiwen.com/subject/fyabkktx.html