美文网首页
3. 参数学习

3. 参数学习

作者: Pitty | 来源:发表于2017-09-11 15:55 被阅读0次

本人在学习斯坦福大学的机器学习课程,特记录课程概要内容。课程地址: Andrew Ng机器学习课程

梯度下降算法

前面课程我们有了一种方法来衡量假设函数如何拟合数据。现在我们需要估计假设函数中的参数,这就需要梯度下降方法。
想象一下,我们基于 θ0 和 θ1 绘制假设函数(实际上我们将代价函数绘制为参数估计的函数)。我们不是绘制x和y,而是绘制假设函数的参数范围和一组特定参数计算出的代价函数。
我们将θ0放在x轴上,θ1放在y轴上,代价函数结果则在z轴上。所以图上的点是我们使用假设函数和一些特定的 θ
参数计算的代价函数的结果。下图显示了这样的结果集。

代价函数结果集
我们可以知道当代价函数处于图中凹坑的最底部时,即当其值是最小值时,假设函数对数据集的拟合度是最高的。图中红色箭头指示了最小点。
而我们获得最小点的方式是通过计算代价函数的导数(函数切线)。切线的斜率是在切点的导数,它可以给我们指定一个移动的方向。使得我们以最快的下降方向降低代价函数值。每个下降幅度由参数α确定,我们称之为学习速率。
例如,上图中的每个“星”之间的距离表示由参数α确定的步长。较小的α将导致较小的步长,较大的α导致较大的步长。下降的方向则由 J(θ0, θ1) 的偏导数决定。从图上的哪一个点开始,可能会在不同的地方结束。上图显示了两个不同的起点,最终得到两个不同的地方。
梯度下降算法为:
*重复以下步骤直到收敛: *

梯度下降算法 - 解析

我们先讨论一个参数 θ1 的梯度下降情况。公式是:
重复直到收敛:


另外,我们应该调整参数α,以确保梯度下降算法在合理的时间内收敛。无法收敛或花太多时间来获得最小值意味着我们的步长是错误的。
梯度下降算法如何以固定的步长α收敛呢?
收敛的结果就是当我们接近函数最底部时,

线性回归的梯度下降算法

当具体应用于线性回归的情况时,可以导出梯度下降方程的新形式。 我们可以用实际代价函数和实际假设函数来代替:
*重复直到收敛: * {


如果我们从一个猜测点的假设函数开始,然后重复应用梯度下降方程,那么我们的假设函数将会越来越准确。
这是简单的代价函数J的梯度下降方程。该方法根据整个训练集的实例的计算每个步骤,称为批量梯度下降。请注意,虽然梯度下降一般容易受局部极小值的限制,但我们在此提出的线性回归的优化问题只有一个全局的最小值,没有其他的局部最优;因此梯度下降总是收敛(假设学习速率α不是太大)到全局最小值,因为J是一个二次函数。 这个梯度下降的示例会趋向最小化二次函数。

上图所示的椭圆是二次函数的轮廓图。还显示了由(48, 30)初始化的梯度下降所采取的轨迹。图中的x轴(由直线连接)标记了梯度下降过程中经过的 θ 逐渐收敛到最小值的连续值。

相关文章

  • 3. 参数学习

    本人在学习斯坦福大学的机器学习课程,特记录课程概要内容。课程地址: Andrew Ng机器学习课程 梯度下降算法 ...

  • 李宏毅2020课程——GNN课堂笔记

    1. 学习的参数; 3. 问题:(1)学习的参数L不是固定的。 (2)学习的参数的规模大小由输入的...

  • 学习生信day2

    复习和新的学习内容 header 参数header 参数header 参数 3.表头read.table("gi....

  • 3. 参数文件

    MySQL实例启动时,读一个配置参数文件。用命令mysql --help|grep my.cnf来寻找。 mysq...

  • Python笔记-关于装饰器写法的理解

    实际上就是闭包的"快捷写法" 学习的过程中主要是要容易搞混参数的问题1.装饰器有参数2.被修饰的函数也有参数3.返...

  • 函数之参数类型

    1.位置参数 2.默认参数 3.指定参数名赋值传递参数 4.动态函数

  • 11.函数传参

    目录:1.位置参数2.关键字参数3.参数默认值4.可变参数5.keyword-only参数6.可变参数和参数默认值...

  • 3. 常用JVM配置参数

    Trace跟踪参数 打印GC的简要信息-verbose:gc-XX:+printGC[GC 4790K->374K...

  • 3.引用做函数参数

  • 机器学习4:局部加权回归

    参数学习算法,非参数学习算法 参数学习算法,用固定的明确的参数进行数据的拟合。比如线性回归。非参数学习算法,使用的...

网友评论

      本文标题:3. 参数学习

      本文链接:https://www.haomeiwen.com/subject/fqwxsxtx.html