线性判别函数
给定若干n维度空间的样本点,我们希望使用超平面将不同类别的点划分开来。如下图,考虑两类的情况,我们需要一个超平面将两类数据划分开,其由确定,称为线性判别函数。
划分超平面的表达式如下
间隔最大化
几何间隔是指某个样本到分类界面的距离
定义样本集与分类界面之间的几何间隔为,样本集中所有样本与分类界面之间几何间隔的最小值。
而SVM的目标是找到一个可以正确划分样本点,且与样本集几何间隔最大的超平面。如下图,称距离最优分类界面最近的这些训练样本为支持向量(support vector)。
支持向量可以看出,最优分类界面完全由支持向量决定。设支持向量,那么可以直接通过最大化间隔,求得和。
但是支持向量正是通过最优分类界面得到的,所以这样通过支持向量求最优分界面的方法时行不通的。
目标函数
记样本的类别标记为,那么意味着分类界面正确划分了样本。不妨通过表示样本离分类界面保持一定的距离,这个距离等于
这时,最大化几何间隔,等价于
按照这个思路,我们可以定义如下目标函数
Kuhn-Tucker构造法
上面的目标函数是一个有约束最优化问题,我们首先需要将其转化为一个无约束最优问题。
使用拉格朗日乘子法,可以得到相应的拉格朗日函数
分别对参数求偏导:
令偏导为零,得
将上面第一个式子带入到拉格朗日函数中得
因此原问题的对偶问题是
这是一个二次规划问题。但是该问题的计算规模正比于训练样本数,这会在实际任务中造成很大的开销。为了解决这个问题,人们提出了许多高效的算法,具有代表性的是SMO。这里不进行介绍。
假设通过解对偶问题得到了,那么可通过下式得到权向量
而对于支持向量中的样本,有
那么那些样本点是支持向量呢?那些满足的样本。这里不进行具体的推导。
松弛变量
当训练样本是线性不可分时,目标函数是无解的。这时,可以通过引入松弛变量,对某些对样本妥协,也就是允许某些样本被分错。
具体来说,改写目标函数
其中,为惩罚参数,需要人工设置。C值越大对误分类的惩罚越大。
对上述目标函数使用拉格朗日乘子法得到
其中,是拉格朗日乘子。令对的偏导为零,并代入到拉格朗日函数中可得原问题的对偶问题
核函数
核函数的思想类似于神经网络中的激活函数。
有时,通过函数将样本从原始空间映射到一个更高维的特征空间,SVM可以找到更加合适的划分超平面。比如
这时候划分判别函数变为
定义核函数为
在SVM求解的过程中,使用替代,可大大减少计算量。常用核函数有,高斯核、多项式核、Sigmoid核等。
题外话
SVM作为机器学习中一个著名的算法,还有许多变体,如半监督SVM、单类SVM等。
网友评论