美文网首页
第九章 牛顿法

第九章 牛顿法

作者: Xuang123 | 来源:发表于2019-06-18 18:44 被阅读0次

9.1 引言

在确定搜索方向时,最速下降法只利用了一阶导数(梯度)。这并不是最高效的。因此引入牛顿法,它同时使用一阶和二阶导数来确定搜索方向。给定一个迭代点之后,首先构造一个二次型函数其与目标函数在该点 处的一阶和二阶导数相等,以此可以作为目标函数的近似表达式;接下来求该二次型函数 的极小点,以此作为下一次迭代的起始点。重复以上过程,以求得目标函数的极小点。这 就是牛顿法的基本思路。如果目标函数本身就是二次型函数那么构造的近似函数与目标 函数就是完全一致的。否则如果目标函数不是二次型函数那么近似函数得到的极小点给出的是目标函数极小点所在的大体位置。


在一次迭代中,牛顿法可以分为两步:
1.求解,得到;
2.确定下一个迭代点
第一步要求解一个n维的线性非齐次方程组

9.2 牛顿法性质分析

在单变量的情况下,如果函数的二阶导数f''<0,牛顿法无法收敛到最小点。多变量时,如果目标函数的黑塞矩阵非正定,牛顿法的搜索方向也不一定是下降方向。
但牛顿法的一大优势在于没如果初始点离极小点比较近,那么将表现出相当好的收敛性。(收敛阶数为无穷大)

9.3 Levenberg-Marquardt 修正

如果黑塞矩阵F(x^{(k)})不正定,那么搜索方向d^{(k)} = -F(x^{(k)})^{-1}g^{(k)}可能不是下降方向,因此引入 Levenberg-Marquardt修正以解决这一问题。确保每次产生的方向是下降方向,修正后的迭代公式:
x^{(k+1)} = x^{(k)} - (F(x^{(k)} + \mu_kI)^{-1}g^{(k)})

相关文章

  • 梯度优化算法

    梯度下降,共轭梯度法;牛顿法,拟牛顿法;信赖域方法,罚函数法。

  • 牛顿法和最速下降法的Python实现

    1 牛顿法 1.1 牛顿法的Python程序 1.2 牛顿法的结果分析     程序执行的结果如下:     经过...

  • 第九章 牛顿法

    9.1 引言 在确定搜索方向时,最速下降法只利用了一阶导数(梯度)。这并不是最高效的。因此引入牛顿法,它同时使用一...

  • 牛顿法、拟牛顿法

    摘抄:https://blog.csdn.net/lilong117194/article/details/781...

  • 牛顿法、拟牛顿法

    牛顿法: 根据二阶泰勒展开,用一阶和二阶倒数确定参数迭代步长和方向 设初始向量,它在处的泰勒展开如下: ,当时 注...

  • 无约束条件的参数优化(2)--牛顿法

    一、牛顿法 在介绍牛顿法之前,先回顾下在数学分析中,对于牛顿法的解释。 在高数中,牛顿法适中估值方法,用于近似计算...

  • Newton's method and Quasi Ne

    Welcome To My Blog 牛顿法和拟牛顿法是求解无约束最优化问题的常用方法,优点是收敛速度快.牛顿法...

  • 局部搜索之牛顿法

    除了前面说的梯度下降法,牛顿法也是机器学习中用的比较多的一种优化算法。 牛顿法求方程解 牛顿法又称为牛顿-拉弗森方...

  • 深度学习笔记—模型优化

    [问题] 深度模型中的优化问题部分 1.牛顿法 神经网络中最广泛使用的二阶方法:牛顿法 牛顿法解决了哪些问题? 二...

  • 牛顿法

    如果要求解一个数的根,用什么方法比较好呢?我之前看到有人问这个问题,据说是谷歌的一道面试题,标准面试答案是使用二分...

网友评论

      本文标题:第九章 牛顿法

      本文链接:https://www.haomeiwen.com/subject/lipxqctx.html