美文网首页
scikit-learn svm基本使用

scikit-learn svm基本使用

作者: 何物昂 | 来源:发表于2019-06-08 10:50 被阅读0次

前言

SVM在解决分类问题具有良好的效果,出名的软件包有libsvm(支持多种核函数),liblinear。此外Python机器学习库scikit-learn也有svm相关算法,不过sk-learn中的SVM也是基于libsvmsklearn.svm.SVCsklearn.svm.LinearSVC 分别由libsvmliblinear发展而来。

正文

本文不涉及SVM算法的数学知识和理论推导,仅介绍通过scikit-learn使用SVM的基本步骤。
使用步骤:

  1. 特征提取:将原始数据转化为SVM算法软件或包所能识别的数据格式;
  2. 将数据标准化:防止样本中不同特征数值大小相差较大影响分类器性能;
  3. 核函数选择: 不知使用什么核函数,优先考虑使用RBF;
  4. 超参数寻优:利用交叉验证网格搜索寻找最优参数(C, γ);(交叉验证防止过拟合,网格搜索在指定范围内寻找最优参数)
  5. 使用最优参数来训练模型;
  6. 测试。

示例代码:

import numpy as np
from sklearn.svm import SVC
from sklearn.preprocessing import StandardScaler
from sklearn.model_selection import GridSearchCV, train_test_split

def load_data(filename)
    '''
    假设这是鸢尾花数据,csv数据格式为:
    0,5.1,3.5,1.4,0.2
    0,5.5,3.6,1.3,0.5
    1,2.5,3.4,1.0,0.5
    1,2.8,3.2,1.1,0.2
    每一行数据第一个数字(0,1...)是标签,也即数据的类别。
    '''
    data = np.genfromtxt(filename, delimiter=',')
    x = data[:, 1:]  # 数据特征
    y = data[:, 0].astype(int)  # 标签
    scaler = StandardScaler()
    x_std = scaler.fit_transform(x)  # 标准化
    # 将数据划分为训练集和测试集,test_size=.3表示30%的测试集
    x_train, x_test, y_train, y_test = train_test_split(x_std, y, test_size=.3)
    return x_train, x_test, y_train, y_test


def svm_c(x_train, x_test, y_train, y_test):
    # rbf核函数,设置数据权重
    svc = SVC(kernel='rbf', class_weight='balanced',)
    c_range = np.logspace(-5, 15, 11, base=2)
    gamma_range = np.logspace(-9, 3, 13, base=2)
    # 网格搜索交叉验证的参数范围,cv=3,3折交叉,n_jobs=-1,多核计算
    param_grid = [{'kernel': ['rbf'], 'C': c_range, 'gamma': gamma_range}]
    grid = GridSearchCV(svc, param_grid, cv=3, n_jobs=-1)
    # 训练模型
    clf = grid.fit(x_train, y_train)
    # 计算测试集精度
    score = grid.score(x_test, y_test)
    print('精度为%s' % score)

if __name__ == '__main__':
  svm_c(*load_data('example.csv'))

其它

网格搜索小技巧

利用网格搜索法来寻找最优参数,网格大小如果设置范围大且步长密集的话难免耗时,但是不这样的话又可能找到的参数不是很好,针对这解决方法是,先在大范围,大步长的粗糙网格内寻找参数。在找到的参数左右在设置精细步长找寻最优参数比如:

  1. 一开始寻找范围是 C = 2^{−5} , 2^{ −3} , . . . , 2^{15}and γ = 2^{−15} , 2^{−13} , . . . , 2^{3} .在这个范围内找到的最优参数是(2^3 , 2^{−5} )
  2. 然后设置更小一点的步长,将参数范围变为C=2^{1} , 2^{ 1.25} , . . . , 2^{ 5}γ = 2^{−7} , 2^{ −6.75}, . . . , 2^{−3} 再在这个参数范围再寻找最优参数。

这样既可以避免一开始就使用大范围,小步长而导致分类器进行过于多的计算而导致计算时间和资源的增加。又可以很好的寻找最优参数。

线性核和RBF的选择

如果训练样本的特征数量过于巨大,也许就不需要通过RBF等非线性核函数将其映射到更高的维度空间上,利用非线性核函数也并不能提高分类器的性能。利用linear核函数也可以获得足够好的结果,此外,也只需寻找一个合适参数C,而利用RBF核函数取得与线性核函数一样的效果的话就需要寻找两个合适参数(C, γ)。所以正确的选择一个核函数,也可以提高模型训练效率。
这里分三种情况讨论:

  1. 样本数量远小于特征数量:这种情况,利用情况利用linear核效果会高于RBF核。
  2. 样本数量和特征数量一样大:线性核合适,且速度也更快。liblinear更适合
  3. 样本数量远大于特征数量: 非线性核RBF等合适。


参考

A Practical Guide to Support Vector Classification

相关文章

  • scikit-learn svm基本使用

    前言 SVM在解决分类问题具有良好的效果,出名的软件包有libsvm(支持多种核函数),liblinear。此外P...

  • SVM

    支持向量机 一、算法原理 二、scikit-learn SVM 三、鸢尾花示例

  • 使用python机器学习六(scikit-learn实战)

    上一篇《使用python机器学习(五)-scikit-learn》简单介绍了scikit-learn的基本知识,此...

  • scikit-learn svm库使用小结

    自己在hsi_svm3d.py中实现过scikit-learn svm库用于高光谱图像分类任务 参数小结1C:C-...

  • sklearn学习笔记——支持向量机SVM

    Support Vector Machines scikit-learn中SVM的算法库分为两类,一类是分类的算法...

  • 通俗易懂的支持向量机SVM

    SVM 的原理和目标 几个基本概念 线性可分SVM——线性 SVM——非线性 SVM1、线性可分SVM,表示可以用...

  • SVM

    1. 基本概念 SVM,全称是Support Vector Machine,中文名叫支持向量机。SVM的基本模型是...

  • 【TODO】支持向量机学习笔记

    ??拉格朗日乘子法??Soft Margin的优化 SVM基本思想 SVM用来解决线性不可分问题。基本思想是,把原...

  • 使用SVM(Using an SVM)

    就像是开方等等操作,我们不需要亲自实现SVM优化算法,只需要调用成熟的高级优化的算法即可。 标准线性分类器,无核函...

  • sklearn 转载

    scikit-learn 线性回归算法库小结scikit-learn 逻辑回归类库使用小结scikit-learn...

网友评论

      本文标题:scikit-learn svm基本使用

      本文链接:https://www.haomeiwen.com/subject/daabxctx.html