美文网首页人工智能与机器学习本体与机器学习
机器学习(6)——凸优化理论(一)

机器学习(6)——凸优化理论(一)

作者: WarrenRyan | 来源:发表于2018-09-25 00:03 被阅读10次

    概述

      凸优化,或叫做凸最优化,凸最小化,是数学最优化的一个子领域,研究定义于凸集中的凸函数最小化的问题。凸优化在某种意义上说较一般情形的数学最优化问题要简单,譬如在凸优化中局部最优值必定是全局最优值。
      下一个并不严谨的定义,凸优化就是在标准优化问题的范畴内,要求目标函数和约束函数是凸函数的一类优化问题。
      可以说,机器学习几乎所有算法都会涉及到凸优化理论,即使是一个非凸优化问题,可以通过数学的等价变换编程一个凸优化问题进行解决。
      一旦我们将一个问题转换成或者说表示成了凸优化,这个问题就已经得到了解决。可以见得,凸优化在数学领域,是如此的重要,同时在机器学习里面,他也是一个具有成熟求解方法的问题,而其他优化问题未必。

    推荐书籍:《凸优化》(Stephen Boyd著,王书宁等译)

    凸优化的基本体系

      凸优化知识体系主要由以下几个组成:

    • 凸集: 定义目标函数和约束函数的定义域。
    • 凸函数: 定义优化相关函数的限制。
    • 凸优化: 中心内容的标准描述。
    • 凸优化问题求解: 本文的重点,相关算法。
    • 对偶问题: 将一般问题转换为凸优化问题的有效手段,求解凸优化问题的有效方法。

    标准优化问题

      标准优化问题例如下式:
    \begin{matrix} min& \qquad f_0(x) \\s.t. \qquad &f_i(x)\leq 0, \qquad i=1,\dots ,m \\ \qquad &h_i(x) = 0, \qquad i=1,\dots ,n \end{matrix}
    表示在所有满足f_i(x)\leq 0,i=1,\dots m \wedge h_i(x)=0,i=1,\dots,px中找出使f_0(x)最小的x
      这里,x\ni R^n,函数f_0:R^n\rightarrow R称为目标函数,相应的f_i:R^n\rightarrow R i=1,\dots m成为不等式约束,方程组h_i(x)=0称为等式约束。假设m=n=0则称为无约束问题。
      对目标和所有约束函数有定义点的集合(定义域)
    \chi=\bigcap_{i=0}^mdomf_i\cap\bigcap_{j=1}^pdomh_j

    凸优化问题

    \begin{matrix} min &\qquad f_0(x) \\s.t. \qquad &f_i(x)\leq 0, \qquad i=1,\dots ,m \\ \qquad &a^T_ix = b_i, \qquad i=1,\dots ,n \end{matrix}
      这里面,f_i(x)\leq 0, i=1,\dots ,m是一个凸函数,这种优化问题就称为凸优化问题。
      对比标准优化问题,也就是说,目标函数和不等式约束为凸函数,等是约束是仿射函数的优化问题就是凸优化问题。

    睡觉啦,明天更新

    Reference

    《凸优化》——Stephen Boyd著,王书宁等译

    我的掘金:WarrenRyan

    我的简书:WarrenRyan

    欢迎关注我的博客获得第一时间更新 https://blog.tity.online

    我的Github:StevenEco

    相关文章

      网友评论

        本文标题:机器学习(6)——凸优化理论(一)

        本文链接:https://www.haomeiwen.com/subject/qyfkoftx.html