美文网首页机器学习
SVM 由浅入深的尝试(二)对偶问题的理解

SVM 由浅入深的尝试(二)对偶问题的理解

作者: 在做算法的巨巨 | 来源:发表于2018-06-27 21:03 被阅读2次

首先,在这里回答一个问题, SVM算法问什么要转为对偶问题?
原因就在于,SVM的代价函数里我们要求最大间隔分隔超平面,传统的方法就是通过样本计算出最优解w,b,但是这种做法严重依赖数据的维度,对偶问题就是将SVM从依赖多个维度转变为依赖N个数据点。

从上篇我们得到了求最大间隔分隔超平面的最优化问题和约束条件。

#发现简书里用latex写的公式容易失效,所以把代码保留下来
![](http://latex.codecogs.com/svg.latex?\min_{w,b}\qquad\frac{1}{2}||w||^2)
![](http://latex.codecogs.com/svg.latex?\\s.t.\;y_i(w\cdot\,x_i+b)-1\geq0,\;i=1,2,...N)

  • 构建拉格朗日函数 lagrange function

在拉格朗日函数中,我们将目标函数和约束条件合并起来,我们对每一个不等式的约束引进拉格朗日乘子 alpha_i,我们规定alpha≥0。

![](http://latex.codecogs.com/svg.latex?\iota(w,b,a)=\frac{1}{2}||w||^2-\sum_{i=1}^N\alpha_iy_i(w\cdot\,x_i+b)+\sum_{i=1}^N\alpha_i)

根据拉格朗日的对偶性,我们目标函数的最小问题被转化为极大极小问题。

![](http://latex.codecogs.com/svg.latex?\max_\alpha\min_{w,b}\iota(w,b,\alpha))

接下来我们对lagrange function进行求w,b偏导

![](http://latex.codecogs.com/svg.latex?\frac{\partial\iota}{\partial\,w}=w-\sum_{i=1}^N\alpha_iy_ix_i=0)
![](http://latex.codecogs.com/svg.latex?\frac{\partial\iota}{\partial\\b}=-\sum_{i=1}^N\alpha_iy_i=0)


得,

![](http://latex.codecogs.com/svg.latex?w=\sum_{i=1}^N\alpha_iy_ix_i)
![](http://latex.codecogs.com/svg.latex?\sum_{i=1}^N\alpha_iy_i=0)


将以上两式带入lagrange function
得到,

![](http://latex.codecogs.com/svg.latex?\min_{w,b}\iota=-\frac{1}{2}\sum_{i=1}^N\sum_{j=1}^N\alpha_i\alpha_jy_iy_j(x_i\cdot\,x_j)+\sum_{i-1}^N\alpha_i)

此时的方程只与alpha有关系,
接下来我们对min求alpha的极大,这就是对偶问题。
也就是

![](http://latex.codecogs.com/svg.latex?\max_\alpha\;-\frac{1}{2}\sum_{i=1}^N\sum_{j=1}^N\alpha_i\alpha_jy_iy_j(x_i\cdot\,x_j)+\sum_{i-1}^N\alpha_i)
![](http://latex.codecogs.com/svg.latex?\\s.t.\sum_{i=1}^N\alpha_iy_i=0,\\\alpha_i\geq0,i=1,2,...,N)


我们将上述目标函数由极大转为极小,就得到下面等价的对偶优化问题

![](http://latex.codecogs.com/svg.latex?\min_\alpha\;\frac{1}{2}\sum_{i=1}^N\sum_{j=1}^N\alpha_i\alpha_jy_iy_j(x_i\cdot\,x_j)-\sum_{i-1}^N\alpha_i)
![](http://latex.codecogs.com/svg.latex?\\s.t.\sum_{i=1}^N\alpha_iy_i=0,\\\alpha_i\geq0,i=1,2,...,N)


至此,以上问题就可以通过计算alpha从而得到整个目标函数的最优解。

相关文章

  • SVM 由浅入深的尝试(二)对偶问题的理解

    首先,在这里回答一个问题, SVM算法问什么要转为对偶问题?原因就在于,SVM的代价函数里我们要求最大间隔分隔超平...

  • SVM由浅入深的尝试(五)核函数的理解

    对于线性分类问题,线性分类向量机是一种非常有效的方法。但是,当分类变得不线性,线性分类向量机就会失效,我们就需要新...

  • 算法基本功:SVM part4 SVM与对偶问题 2019-03

    上章讲了对偶问题一般情况,引入到SVM中。 SVM 对偶问题表达式推导: 由上一章节知道: # 直白讲即: 原问题...

  • 03 SVM - KKT条件

    02 SVM - 拉格朗日乘子法 回顾上章,原始问题与对偶问题的关系: 结论:1、对偶问题小于等于原始问题。2、当...

  • Dual SVM

    对偶的引入 引入对偶摆脱解决标准SVM问题时对z空间维度的依赖234

  • 2019-01-25

    写出 svm 原始问题转换至其对偶问题的数学推导过程: 1 导包: from sklearn import svm...

  • SVM算法 由浅入深的尝试(一)

    FOREWORDS SVM,全称Support Vector Machine,也就是支持向量机。SVM可以说是目前...

  • 支持向量机 (Support Vector Machine)

    SVM俗语: SVM有三宝: 间隔 、对偶、核技巧 SVM的由来 对于线性可分的问题,一般可以使用PLA得到解决,...

  • 【机器学习基础】核支持向量机

    引言 在上一小节中,我们介绍了SVM的对偶形式,该形式也可以使用二次规划的方式来求解。这个对偶形式告诉我们SVM背...

  • SVM原问题与对偶问题

    序 本次记录:原问题与对偶问题的关系;强对偶与弱对偶;引入KKT的原因; 原问题与对偶问题的关系 定义一个原问题:...

网友评论

    本文标题:SVM 由浅入深的尝试(二)对偶问题的理解

    本文链接:https://www.haomeiwen.com/subject/oxnvyftx.html