ML 教程 4 - 梯度下降法(一) 从损失函数的图像入手

作者: LiuHDme | 来源:发表于2017-07-20 12:44 被阅读211次

(文章中的图片来自 Coursera)

前面几篇文章简单介绍了假设函数和损失函数,接下来的几篇文章将介绍减小损失函数的方法 —— 梯度下降法(Gradient Descent)。

从损失函数的图像入手

举个最简单的例子,假如在数据集中有三组数据分别是

x = 1,y = 1

x = 2,y = 2

x = 3,y = 3

显然,每组数据的 x 只有一个,并且真实结果 y 和 x 的关系是 y = x,那显然图像是条穿过远点且和 x 轴成 45° 角的直线,对于假设函数 h(x) 来说,当然是参数 𝜃1 等于 1 的时候图像可以和真实图像完全吻合,即 h(x) = x,这时的损失函数结果当然是 0。如果改变了参数 𝜃1 的值,就会改变损失函数的值。

假如 𝜃1 等于 2,这时 h(x) = 2x,那么数据集中的三组数据就变成了

x = 1,y = 2

x = 2,y = 4

x = 3,y = 6

再来计算一下损失函数,根据上一篇文章中的公式:

可以算出

大约是 2.3

根据这种方法,可以算出 𝜃1 不同取值时的 J(𝜃1) 的值,然后可以作出 J(𝜃1) 的图像,大概是这样的:

发现没,这个图像中间是凹下去的,而且在 𝜃1=1 的时候达到了最低点,在这个图像中达到这个点就达到了全局最优,所谓全局最优就是 J(𝜃1) 最小的时的情况,这时的 𝜃1 称为全局最优解,所以,我们的任务就是找到全局最优解。

当然,这只是最简单的情况,实际上,由于 𝜃 可能不止一个,当 𝜃 是两个时,J(𝜃) 的图像是三维的,像这样:

而且可能存在局部最优的情况,比如图中左边红色箭头指的地方(不要纠结是左边低还是右边低。。。),我们应该避免陷入局部最优,应该努力达到右边箭头所指的全局最优。

当 𝜃 是三个或以上时,J(𝜃) 的图像就不容易画出来了,因为这时的图像已经是高维的了,但只需要记住,我们的任务就是不断的改变 𝜃,使 J(𝜃) 达到全局最优,也就是最小值,图像只是为了方便大家理解。

那么肯定有人会问,我怎么知道该如何改变 𝜃 的值呢,有一种用的比较多的方法就是梯度下降法,卖个关子,下篇文章再讲什么是梯度下降法以及如何使用。

小结

这篇文章本来就应该讲梯度下降法的,但是我觉得把损失函数的图像讲一下可能会更方便大家理解。

到目前为止,如果大家有没有理解的地方,可以到我的博客留言,传送门

点我

应该很好记,因为我姓刘,liuhd 就是我的姓和名字,me 就是我的意思啦(其实 me 还有别的意思,以后有机会再告诉大家),我在很多社交场所的名字都叫 LiuHDme,比如网易云音乐,微博,Twitter 等等,感兴趣的可以百度或者谷歌一下哈哈,不过谷歌的搜索结果结果多一些。就这样,下一篇文章再见。

md简书加个写公式的服务吧 (╯°□°)╯︵┻━┻

相关文章

  • ML 教程 4 - 梯度下降法(一) 从损失函数的图像入手

    (文章中的图片来自 Coursera) 前面几篇文章简单介绍了假设函数和损失函数,接下来的几篇文章将介绍减小损失函...

  • 线性回归 及 梯度下降(代码实现)

    重点 1 特征归一化2 损失函数3 梯度下降 特征归一化 损失函数 梯度下降法

  • ML-梯度下降法求解线性回归

    梯度法 是基于搜索来最优化一个目标函数的方法。分为梯度下降法 和 梯度上升法 :梯度下降法 用来最小化一个损失函数...

  • 4.梯度下降法&&随机梯度下降法

    梯度下降法&&随机梯度下降法 梯度下降法需要计算全量的训练样本的损失函数的均值,然后更新一次权重,学习速度比较慢。...

  • 线性回归-梯度下降法

    梯度下降法求解最小二乘 1、批量梯度下降法 (1)构造损失函数 (2)求梯度对J(theta)关于theta求偏导...

  • 神经网络03

    损失函数 三维图像 梯度

  • BGD,SGD及MBGD

    BGD(批量梯度下降法) 批梯度下降每次更新使用了所有的训练数据,最小化损失函数,如果只有一个极小值,那么批梯度下...

  • 梯度下降和牛顿法

    这里主要讨论梯度下降法和牛顿法的原理 1.梯度下降法 形式:,其中为损失函数,为模型参数 下面将推导这一形式的由来...

  • 最速梯度下降

    梯度下降法实现简单,当目标函数是凸函数时,梯度下降法的解是全局解。一般情况下,其解不保证是全局最优解,梯度下降法的...

  • 机器学习(4)梯度下降

    梯度下降法简介 以下是定义了一个损失函数以后,参数theta对应的损失函数J的值对应的示例图,我们需要找到使得损失...

网友评论

    本文标题:ML 教程 4 - 梯度下降法(一) 从损失函数的图像入手

    本文链接:https://www.haomeiwen.com/subject/lrvdkxtx.html