美文网首页Machine Learning 教程机器学习与数据挖掘
ML 教程 6 - 梯度下降法(三) 在线性回归中的具体形式

ML 教程 6 - 梯度下降法(三) 在线性回归中的具体形式

作者: LiuHDme | 来源:发表于2017-07-21 14:10 被阅读108次

上一篇文章中,讲到了梯度下降法的公式,但是比较抽象,这篇文章将通过一个例子来讲解这个公式。

线性回归

这篇文章就介绍梯度下降法在线性回归上的应用。所谓回归就是指通过已知数据预测出结果数据,线性回归就是指已知数据和预测数据之间的关系是线性的,它们的假设函数通常有如下形式:

我们举个比较简单的例子,即

回忆第三篇文章中损失函数的公式如下

假如数据集中只有一组数据,那么损失函数可以被简化为

其中

梯度下降

在上一篇文章中,给出了梯度下降的一般公式

用在这篇文章中举的例子,就有如下形式:

下面我推导一遍求偏导的过程

推广到一般形式就是

其中,x 的上标 i 指的是 x 在数据集中的第几个,下标 j 指的是在某一组数据中,这是第几个因素,比如有一组数据是

那么 x1 就表示这是这三个因素中的第 1 个(注意下标是从 0 开始的)

小结

上文推导了梯度下降在线性回归中的具体形式,希望大家对梯度下降的公式有了更深的理解,当然,回归不止线性回归一种形式,还有逻辑回归等等,梯度下降的具体形式也不同,但是总的思想都是让参数减去导数,使参数不断接近最优解,使得损失函数最小。

相关文章

网友评论

    本文标题:ML 教程 6 - 梯度下降法(三) 在线性回归中的具体形式

    本文链接:https://www.haomeiwen.com/subject/kmcekxtx.html