美文网首页
Machine Learning - Andrew Ng 笔记(

Machine Learning - Andrew Ng 笔记(

作者: nafoahnaw | 来源:发表于2019-10-05 19:16 被阅读0次

    Support Vector Machines

    SVM是本次课程中会介绍到的最后一种监督机器学习算法.

    Optimization Objective

    SVM cost1(z) and cost0(z)
    如果将logistic regression的cost function去掉regularization和sum相关的东西,剩下的那部分(上图中的Cost of example)可以看作是每个样本贡献的代价,该代价分为两部分,左边部分在y=1时贡献代价,右边部分在y=0时贡献代价,继续将sigmoid函数带入Cost of example中我们可以分别绘制y=1和y=0时cost(z)的图形.
    Recall:对于logistic regression来说,在y=1时要让代价最小那么要满足,y=0时情况相反.
    SVM的cost(z)相对于logistic regression更简单,当y=1时,并且时,cost(z)=0,当时表现和logistic regression类似,只是是一个线性函数,当y=0时,并且时,cost(z)=0.对于SVM来说当y=1时,代价记作,当y=0时,记作. SVM Cost Function

    SVM的代价函数和Logistic Regression的代价函数形式上略微有些不同:

    • cost(z)不同
    • 关注点不同,LR中通过对Regularization部分使用\lambda来影响\Theta最终取值.SVM中通过C来影响第一部分,假设我们将C设置为一个相当大的数字,那么cost function要想最小,就会得出以下结论:
      SVM Decision Boundary
      1.当y=1时,我们希望\Theta^{T}x>=1,这样cost function的前半部分会最小(0)
      2.当y=0时,我们希望\Theta^{T}x<=-1,这样cost function的前半部分会最小(0)
      如果能找到\Theta满足以上两点,那么cost function就只剩第二部分了.
    SVM Decision Boundary 2

    使用SVM的话,decision boundary很大程度上会是上图中黑色的那一条,相比于另外两条来说,黑色的decision boundary会尽可能离所有样本的距离最远(所以也更"安全"),这个距离被称为margin,所以SVM也被称为Large margin classifier.


    outliers

    SVM在C设置的非常大的时候很容易受特异值的干扰,如上图中倾斜的那根decision boundary,此时需要调整C为一个略小的值.

    The mathematics behind large margin classification

    Vector inner product

    其中||u||是向量u的长度
    p是v在u上投影的长度(正负取决于u,v的夹角)
    SVM Decision Boundary
    为了简单起见,假设我们只有3个参数,,,其中,在满足y=1,z>=1;y=0,z<=-1时,代价函数可以看作是求的最小值.
    z又可以看作,其中p是x在上投影的长度,如下图:
    SVM Decision Boundary

    假设我们随意作一条decision boundary(绿色),如上图左,可以证明\Theta是一条垂直于decision boundary的直线,在这种情况下p值很小,但是我们又希望pㆍ||\Theta||>=1,那么cost function会使得||\Theta||变大,导致整体代价变大.反观上图右,在这种情况下p值相对左图较大,所以我们会得到一个相对较小的||\Theta||,这样一来整体代价会更小.所以在使用SVM计算出的decision boundary总会离样本有足够大的margin(只要C足够大).

    Why the theta is perpendicular to the decision boundary

    Kernel

    Non-linear Decision Boundary
    之前使用Logistic Regression的时候我们会像右图一样设计hypothesis函数,但是在SVM中我们又更好的解决方案--Kernel
    Kernel:对于给定的训练样本,使用landmark计算新的特征值f.
    使用kernel之后,新的hypothesis将会变成
    predict 1 when otherwise 0
    f有很多种计算方式,下图是Gaussian Kernel
    Gaussian Kernel
    上图中的代表第一个landmark.由公式可知:
    if :
    if x far away from :
    Predict by using Kernel
    hypothesis如上图所示,并且挑选了,假设现在有训练样本x(粉红色)靠近,那么使用Gaussian Kernel计算得到,通过cost function假设我们求到并带入hypothesis函数可知predict y=1
    那么接下来的问题,landmark怎么选?Cost function长什么样?

    Landmarks

    Given (x^{(1)}, y^{(1)}),(x^{(2)}, y^{(2)}),...,(x^{(m)}, y^{(m)})
    choose l^{(1)}=x^{(1)},l^{(2)}=x^{(2)},...,l^{(m)}=x^{(m)}

    Cost function with kernels

    Cost function
    SVM使用Kernel之后的代价函数与之前不同之处在于:
    1.->
    2.通过Kernel新生成的特征值数量和Training Set中样本的个数是一致的,所以第二部分中的n(代表之前的特征值数量)需要写成m.

    SVM with Kernels

    总结下SVM使用Kernel的过程
    1.挑选landmarks(与Training Set一一对应)
    2.对于每一个样本x^{(i)}计算对应的向量f^{(i)},(对于一些kernel在计算前需要先做feature scaling)
    f^{(i)}=\left[ \begin{matrix} f_0 \\ f_1^{(i)} \\ f_2^{(i)} \\ ...\\ f_m^{(i)} \end{matrix} \tag{1-1} \right]
    其中f_0=1
    3.将f带入到cost function中计算得到\Theta,hypothesis完成.
    注意,因为新的特征值数量是m+1,所以通过cost function 求出的 \Theta向量的大小也是m+1

    SVM with Kernels high variance or bias trading off

    1.cost function 中的C如果越大,\Theta^Tfp||\Theta||倾向于去满足>=Threshold或者<=Threshold来使cost function中的第一部分减小,所以||\Theta||会倾向变大,这样会导致overfitting.反之如果C越小,则会导致underfitting.
    2.对于Gaussian Kernel来说\sigma^2越大,f的变化趋于平稳,那么容易导致underfitting.反之如果\sigma^2越小,f的变化则不那么平稳,这样容易导致overfitting.
    \sigma^2f函数图如下:

    Example

    相关文章

      网友评论

          本文标题:Machine Learning - Andrew Ng 笔记(

          本文链接:https://www.haomeiwen.com/subject/lkbhpctx.html