烧脑的 SVM 推导

作者: zidea | 来源:发表于2019-10-28 19:13 被阅读0次
机器学习基础

什么是 SVM 算法

  • 二元线性分类问题(简单)

    • 可分问题
    • 什么样线性方程是最好线性的方程,离这条子线最近那些点离这条线最远,这也是 SVM 的目标
    • 有很多判别线
    • 支持向量与我们直线最近那些点(向量)就是支持向量
  • 回忆解析几何,点到直线的距离

  • (x,y)Ax + By + C = 0 的距离
    \frac{|Ax + By + C|}{\sqrt{A^2 + B^2}}

  • 扩展到 n 维空间 \theta^Tx_b = 0 \Rightarrow w^T + b = 0

\frac{|w^T + b|}{||w||} ||w|| = \sqrt{w_1^2 + w_2^2 \cdots w_i^2}
我们了解到了如何在 n 维空间进行求解点到线或平面的距离后,我么知道所有点到平面的距离都应该大于支持向量到平面距离,然后接下来我们再尝试用数学方式把这些思想表达出来。

这里对于分类问题使用 1 和 -1 表示两类事物,而非 0 和 1。
\begin{cases} \frac{w^Tx^{(i)} + b}{||w||} \ge d & \forall y^{(i)} = 1 \\ \frac{w^Tx^{(i)} + b}{||w||} \le -d & \forall y^{(i)} = -1 \end{cases}
通过公式不难看出对于任意样本点 y^i = 1 都满足 \frac{w^Tx^{(i)} + b}{||w||} \ge d
对等式两边分别除以 d 就得到下面不等式
\begin{cases} \frac{w^Tx^{(i)} + b}{||w||d} \ge & \forall y^{(i)} = 1 \\ \frac{w^Tx^{(i)} + b}{||w||d} \le -1 & \forall y^{(i)} = -1 \end{cases}

这里 ||w|| 是 n 维的向量的模是一个数字,d 也是数,我们可以对 w 和截距 b 同时除以一个数。转换成下面方程
\begin{cases} w^T_dx^{(i)} + b_d \ge 1 & \forall y^{(i)} = 1 \\ w^T_dx^{(i)} + b_d \le -1 & \forall y^{(i)} = -1 \end{cases}

那么我们这里方程中有两个未知数 W_db_d 需要我们求解,这样我们就可以使用 w 和 d 直接进行替换。但是现在使用 w 和 d 和之前 w 和 d 差一个系数关系。

我们在进一步进行推导出,这样我们将两个不等式合并表示为一个不等式。也就是说明我们所有点都要满足这个不等式关系。
y^{(i)}(w^Tx^{(i)} + b) \ge 1

推导到现在我们发现决策边界线可以表达为 W_d^T + b = 0
而其上下两侧的支持向量的直线可以用 W_d^T + b = 1W_d^T + b = -1
对于任意支撑支持向量
\max \frac{|w^Tx+b|}{||w||} \Rightarrow \max \frac{1}{||w||} \Rightarrow \min ||w|| \Rightarrow \min \frac{1}{2} ||w|| ^2
经过一些列推导我们得到最小值,求取最小值也就是我们问题变为可以优化的问题。不过这一切是建立在满足以下不等式基础上
s.t. y^{(i)}(w^Tx_i + b) \ge 1

相关文章

  • 烧脑的 SVM 推导

    什么是 SVM 算法 二元线性分类问题(简单)可分问题什么样线性方程是最好线性的方程,离这条子线最近那些点离这条线...

  • 2018-05-14

    SVM手动推导

  • SVM推导

    SVM推导 参考链接。 问题分析:给定一个标注的数据集(x_{i},y_{i}), i=1,2,3,4……N,其中...

  • 推导svm

    梯度垂直于等高线,指向函数变化最快的方向,指向极大值点方向 约束条件为等式求极值 先来看个简单求极值例子 先看下图...

  • SVM面试级推导

    序 SVM是面试中常问的模型之一,本次记录一下应对面试时SVM如何进行较为清晰和简洁的推导 SVM面试级推导(自写...

  • SVM推导过程 - 草稿

    title: SVM推导过程 date: 2019-03-12 08:25:33 tags: [svm, ml] ...

  • 超详细白板推导:从模型和优化 2 个角度详解 SVM 核函数

    在 SVM 白板推导| 由最大间隔化目标演化的损失函数推导过程 中白板手推了 SVM 的原理,并介绍了硬间隔核函数...

  • 机器学习小组第十周打卡

    学习目标 知识点描述:致敬真神:支持向量机 学习目标: SVM算法原理及数学推导 SVM算法中的核函数 SVM算法...

  • 2019-01-25

    写出 svm 原始问题转换至其对偶问题的数学推导过程: 1 导包: from sklearn import svm...

  • 烧脑的贝叶斯推导

    统计学研究方向 什么是统计是关于数据的学科,我们想要增加对大自然了解。搜集数据然后对自然进行推断。我们日常计算均值...

网友评论

    本文标题:烧脑的 SVM 推导

    本文链接:https://www.haomeiwen.com/subject/uztivctx.html