美文网首页
01-sklearn中的KNN

01-sklearn中的KNN

作者: sbill | 来源:发表于2018-05-18 10:41 被阅读0次

前言

因为是用sklearn来实现KNN算法,所以基本上只需要调用API就可以了,但是可以理解一个算法的基本流程。

基本内容

  • 加载sklearn库中的数据
  • 切分数据集
  • 训练并评估
  • 网格搜索
  • 数据标准化

准备数据

sklearn中自带了一些数据集,可以使用这些数据集来进行练习,下面导入手写数字识别的数据集

from sklearn import datasets

digits = datasets.load_digits()
print(digits.keys())
#output:dict_keys(['data', 'DESCR', 'images', 'target', 'target_names'])

导入数据集后,数据集类似于字典,可以通过“点”操作符获得它相应的值,一般用到的也就是“data”和“target”两个键来获得数据的特征矩阵和标签向量:

X = digits.data
y = digits.target

切分

一般为了更好的泛化能力,都将数据集切分为训练集和测试集,训练集用来训练得到模型,然后用测试集来测试这个模型的性能

from sklearn.model_selection import train_test_split

X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=0)

不成文规定,矩阵大写,向量小写

训练并评估

在sklearn中这一部分十分简单,只需要将对应的模型实例化,然后fit训练集上的数据,再在测试集上调用score方法就可以进行评估了

from sklearn.neighbors import KNeighborsClassifier

knn_clf = KNeighborsClassifier()
knn_clf.fit(X_train, y_train)

knn_clf.score(X_test, y_test) #得分0.975

网格搜索超参数

在实例化模型的时候,不指定参数的话,使用的是默认的值,其实K近邻模型中有几个参数值得注意:

  • n_neighbors:整数,默认为5,决定考虑几个点来投票
  • weights:投票时是否考虑距离的远近,越近的权重越大
  • p:整数,考虑使用哪种距离考量,默认值为2,即欧式距离

其实不只是这些参数,具体有哪些参数可以到官网去查看api,这些参数的值为多少时模型的表现最好呢?我们可以用网格搜索来查找参数最好的值

param_grid = [
    {
        'n_neighbors':[i for i in range(1, 10)],
        'weights':['uniform', 'distance'],
        'p':[i for i in range(1, 6)]
    }
]

knn = KNeighborsClassifier()
from sklearn.model_selection import GridSearchCV
grid_search = GridSearchCV(knn, param_grid)

grid_search.fit(X_train, y_train)

搜索的时间比较长,自己的垃圾电脑用了差不多7分钟==

fit完之后,可以通过下面两个属性查看结果和分数:

grid.best_estimator_
# output:
'''
KNeighborsClassifier(algorithm='auto', leaf_size=30, metric='minkowski',
           metric_params=None, n_jobs=1, n_neighbors=7, p=3,
           weights='uniform')
'''
grid.best_score_ #会输出最好的分数是多少

使用网格搜索的到参数的值,更新模型后评估得到果然提高了一点

数据标准化

stand = StandardScaler()
stand.fit(X_train)
X_train = stand.transform(X_train)
X_test_stand = stand.transform(X_test)

不知道为何标准化之后的数据的评分还降低了……

相关文章

  • 01-sklearn中的KNN

    前言 因为是用sklearn来实现KNN算法,所以基本上只需要调用API就可以了,但是可以理解一个算法的基本流程。...

  • 第六节分类算法

    1knn算法 1.1knn的过程 1.2scilit-learn中的knn 1.3scikit-learn机器学习...

  • KNN中

    文章来自微信公众号作者Japson https://mp.weixin.qq.com/s/vvCM0vWH5kmR...

  • 机器学习系列(十)——更多关于knn的思考

    knn算法解决回归问题简介 在前面的系列中,knn算法主要用于解决分类问题,不只是二分类问题,knn算法可以天然地...

  • Spark -- 基于RDD实现 KNN

    Spark -- 基于RDD实现 KNN 上一篇 基于DataFrame实现KNN的过程中,由于中间使用了笛卡尔积...

  • Spark --基于DataFrame API实现KNN算法

    Spark -- 基于DataFrame API实现KNN算法 KNN简介 KNN(k-Nearest Neigh...

  • KNN近邻算法总结

    目录 一、KNN近邻算法思想 二、KNN模型三大要素 三、KNN算法实现步骤 四、KNN算法的KD树实现 五、总结...

  • BAT机器学习面试1000题系列(第21~30题)

    21.KNN中的K如何选取的?关于什么是KNN,可以查看此文:《从K近邻算法、距离度量谈到KD树、SIFT+BBF...

  • 机器学习

    1.KNN 一个小栗子 实现sklearn中的knn 将数据分为测试数据和训练数据 iris的分类: 数据归一化:...

  • 利用Python进行数字识别

    思路 通过Python实现KNN算法。而KNN算法就是K最近邻(k-Nearest Neighbor,KNN)分类...

网友评论

      本文标题:01-sklearn中的KNN

      本文链接:https://www.haomeiwen.com/subject/fdnwdftx.html