0x09_SVM

作者: zhree003 | 来源:发表于2020-05-02 22:29 被阅读0次

    支持向量机,解决的是分类问题,非监督分类。相比逻辑回归中根据sigmoid函数将“结果”压缩到0-1区间,根据概率函数进行建模,而SVM则是将数据进行“距离”建模,在处理上利用空间向量的距离计算技术,去找相应的决策边界:

    这里的决策边界即支撑向量,支撑着两条平移边界(待分区)的点。Margin就是分界面可以移动的范围,范围越大表示容错能力越强(对数据进行分类的稳定性高)

    SVM算法其最核心的思想就是从Input Space向更高维的Feature Space的映射,进行有Margin的线性分类。

    #非线性分类

    上述说明是针对线性可分数据,针对非线性数据将数据进行升维处理(处理非线性数据最典型的思路就是使用多项式的方式:扩充原本数据,制造新的多项式特征

    #线性回归

    线性回归算法,定义拟合的方式就是数据点到拟合直线的MSE最小。

    SVM解决分类问题时,Margin中的范围越少越好。但是解决回归问题恰恰相反,Margin范围能够拟合更多的数据。

    SVM算法的主要优点有:

    解决高维特征的分类问题和回归问题很有效,在特征维度大于样本数时依然有很好的效果。

    仅仅使用一部分支持向量来做超平面的决策,无需依赖全部数据。

    有大量的核函数可以使用,从而可以很灵活的来解决各种非线性的分类回归问题。

    样本量不是海量数据的时候,分类准确率高,泛化能力强。

    SVM算法的主要缺点有:

    如果特征维度远远大于样本数,则SVM表现一般。

    SVM在样本量非常大,核函数映射维度非常高时,计算量过大,不太适合使用。

    非线性问题的核函数的选择没有通用标准,难以选择一个合适的核函数。

    SVM对缺失数据敏感。

    相关文章

      网友评论

          本文标题:0x09_SVM

          本文链接:https://www.haomeiwen.com/subject/kswlghtx.html