美文网首页
算法基本功:SVM part2 - 2019-03-02

算法基本功:SVM part2 - 2019-03-02

作者: qb学习笔记 | 来源:发表于2019-03-02 22:48 被阅读0次

上一篇文章推导了针对不等式约束优化问题的KKT条件。

接下来具体到svm 问题上推导: 只有支持向量才决定最优解。


svm 要解决的问题是: 找到使得 几何间隔最大的 分类超平面。

数学表达为:

min \frac{1}{2}| |x||^2

subject to:  1 - y_i( wx_i +b) <= 0

转化为拉格朗日表达式:

L: \frac{1}{2}| |x||^2  + \Sigma _i \alpha _i (1-(y_i(wx+b)))

kkt 条件:

1. \alpha _i (1-(y_i(wx+b))) <= 0                             # g(x*) <=0

2.     同右注释                                                             # L的梯度(在W,b上) = 0,  \lambda >= 0。               

3. \alpha _i (1-(y_i* (wx_i +b )))= 0            # \lambda g(x*) = 0

对于第三个条件, 结合不等式约束的两类子情况(上一篇文章SVM-part1: KKT条件)

当 系数严格大于0: 必有 g(x*) = 0;

即  y_i(wx_i+b)=1, 即样本(x_i, y_i)为支持向量,在‘那’两条分类边界上(你懂的)。

当 系数等于0: 必有g(x*)  严格小于0(#即最优解在可行域内,而非边界.)

即 y_i(wx_i+b) > 1

利用第二个条件,我们求出 :

2.1:    W* = \Sigma_i \alpha _ix_iy_i   # L对w 求偏导数,令其为0

2.2:   \Sigma_i \alpha _i y_i = 0
      #  # L对b求偏导数,令其为0

2.3    y_j
 =  W*x_j + b*,   故 b* = y_j  - \Sigma _i\alpha ixiyi *x_j

综合上述两个推导,我们可以说:最优解W*仅仅是全部 支持向量(且形式为x_iy_i) 的线性组合,与非支持向量无关。

下一章详细说说对偶问题。

相关文章

  • 算法基本功:SVM part2 - 2019-03-02

    上一篇文章推导了针对不等式约束优化问题的KKT条件。 接下来具体到svm 问题上推导: 只有支持向量才决定最优解。...

  • 机器学习小组第十周打卡

    学习目标 知识点描述:致敬真神:支持向量机 学习目标: SVM算法原理及数学推导 SVM算法中的核函数 SVM算法...

  • 11 SVM - SMO - 序列最小优化算法

    05 SVM - 支持向量机 - 概念、线性可分06 SVM - 线性可分模型算法和案例07 SVM - 软间隔模...

  • 必须掌握的算法

    逻辑回归 SVM XGBoost LDA FM FMM 推荐算法常用推荐算法

  • 支持向量机算法

    支持向量机(Support Vector Machine, SVM)是有监督分类算法。 一、SVM本质 (1)无数...

  • SVM算法

    svm是一种用来进行分类的算法,如果待分类数据是线性可分的,就可以求解线性可分支持向量机来进行分类;如果待分类数据...

  • SVM算法

    1、背景 1.1 最早是由Vladimir N. Vapnik 和 Alexey Ya. Chervonenkis...

  • SVM 算法

    1、参数解读 C 的作用类似于 1/λ,当 C 不是非常非常大的时候,它可以忽略掉一些异常点的影响,得到更好的决策...

  • SVM算法

    7.20:::::::硬间隔最大化(线性可分) 二分类问题 找到超平面 且是最优超平面(最大间距的超平面凸二次规...

  • SVM支持向量机

    一、SVM简述 SVM支持向量机(英文全称:support vector machine)是一个分类算法, 通过找...

网友评论

      本文标题:算法基本功:SVM part2 - 2019-03-02

      本文链接:https://www.haomeiwen.com/subject/jvpyuqtx.html