美文网首页
【python+机器学习1】python 实现 KNN

【python+机器学习1】python 实现 KNN

作者: 哈希大数据 | 来源:发表于2018-06-01 19:19 被阅读71次

    欢迎关注哈希大数据微信公众号【哈希大数据】

    1 KNN算法基本介绍
    K-Nearest Neighbor(k最邻近分类算法),简称KNN,是最简单的一种有监督的机器学习算法。也是一种懒惰学习算法,即开始训练仅仅是保存所有样本集的信息,直到测试样本到达才开始进行分类决策。

    KNN算法的核心思想:要想确定测试样本属于哪一类,就先寻找所有训练样本中与该测试样本“距离”最近的前K个样本,然后判断这K个样本中大部分所属的类型,就认为是该测试样本的类型。也就是所谓的“近朱者赤近墨者黑”,根据与其最近的k个样本的类型决定其自身的类型。因此K的确定和测算距离的方式是影响样本最终分类准确率的重要因素。

    常用的测算距离的方法是多维空间的欧式距离法。

    其优点为:易于理解,实现简单,无需估计参数,无需训练。

    缺点为:需要保存所有的训练数据,内存开销大,而且训练数据较多时会导致很高的算法复杂度,训练数据类型不均匀可能会导致预测准确率下降。

    2 标准数据集介绍
    我们将采用scikit-learn库中自带的鸢尾花数据集进行测试。可以在D:\anaconda python\pkgs\scikit-learn-0.19.0-np113py36_0\Lib\site-packages\sklearn\datasets\data路径下查看元数据,部分数据实例如下图(共计150条数据)。

    image

    鸢尾花数据集包括鸢尾花的测量数据(特征属性)以及其所属的类别。

    测量数据特征包括: 萼片长度、萼片宽度、花瓣长度、花瓣宽度

    所属类别有三类: Iris Setosa,Iris Versicolour,Iris Virginica ,用数字0,1,2表示。

    #通过python加载鸢尾花数据集

    from sklearn import datasetsiris = datasets.load_iris()
    

    # 获取鸢尾花属性数据并查看数据特征

    iris_X = iris.dataprint(iris.data.shape)
    

    # 获取鸢尾花类别数据

    iris_y = iris.target
    

    拆分****数据集****为训练数据和测试数据:

    # 方法一:使用python的train_test_split库进行数据集拆分

    iris_train_X , iris_test_X, iris_train_y ,iris_test_y = train_test_split(iris_X, iris_y, test_size=0.2,random_state=0)
    

    # 方法二:随机选择部分数据(20%)作为测试集(适用于少量数据)

    np.random.seed(0)
    select = np.random.permutation(len(iris_y))
    iris_X_train = iris_X[select[:-30]]
    iris_y_train = iris_y[indices[:-30]]
    iris_X_test = iris_X[indices[-30:]]
    iris_y_test = iris_y[indices[-30:]]

    3 KNN算法python实现

    在此我们将直接使用python的scikit-learn 库中的 neighbors.KNeighborsClassifier类,通过KNN算法对测试集中鸢尾花进行分类。

    首先进行类的初始化

    knn =KNeighborsClassifier(algorithm='auto', leaf_size=30, metric='minkowski', metric_params=None, n_jobs=1, n_neighbors=5, p=2, weights='uniform')
    

    参数介绍

    l n_neighbors=5,就是KNN中的k,默认为5。

    l weights='uniform',是距离计算中使用的权重,默认为'uniform' 是等权加权,也可以选'distance'是按照距离的倒数进行加权,也可以自己设置其他加权方式。(给距离增加权重,如果越近的距离权重越高,能在一定程度上避免样本分布不平均的问题)

    l metric='minkowski'、p=2,表示采用的是欧氏距离的计算。

    计算距离的方式默认为闵可夫斯基距离,是一组距离的定义。

    两个n维变量a(x11,x12,…,x1n)与 b(x21,x22,…,x2n)间的闵可夫斯基距离:

    image

    其中p=1时,为曼哈顿距离;p=2时,为欧氏距离;p→∞时,为切比雪夫距离。根据变参数p的不同,闵氏距离可以表示一类的距离。

    l algorithm='auto',是分类时采取的算法,有'brute'、'kd_tree'和'ball_tree',三种默认按照数据特征从这三种中选择最合适的。其中kd-tree基于欧氏距离的特性可以快速处理20维以内的数据集,balltree基于更一般的距离特性,适合处理高维数据。(三种算法的具体实现之后会进行详细介绍)

    l leaf_size=30,是kd_tree或ball_tree生成的树的树叶(二叉树中未分枝的节点)的大小。

    l n_job=1,是并行计算的线程数量,默认是1,输入-1则设为CPU的内核数。

    # ****提供数据集进行训练

    knn.fit(iris_X_train, iris_y_train)
    

    # ****预测测试集数据鸢尾花类型

    predict_result = knn.predict(iris_X_test)print(predict_result)
    

    # ****计算预测的准确率

    print(knn.score(iris_X_test, iris_y_test))
    

    4 完整源码及输出结果

    !/usr/bin/python
    -- coding: utf-8 --
    KNN调用
    import numpy as np
    from sklearn import datasets
    from sklearn.neighbors import KNeighborsClassifier
    from sklearn.model_selection import train_test_split
    from sklearn import datasets

    导入鸢尾花数据并查看数据特征
    iris = datasets.load_iris()
    print('数据量',iris.data.shape)

    拆分属性数据
    iris_X = iris.data

    拆分类别数据
    iris_y = iris.target

    方法一:拆分测试集和训练集,并进行预测
    iris_train_X , iris_test_X, iris_train_y ,iris_test_y = train_test_split(iris_X, iris_y, test_size=0.2,random_state=0)
    knn = KNeighborsClassifier(n_neighbors=3)
    knn.fit(iris_train_X, iris_train_y)
    knn.predict(iris_test_X)

    方法二:拆分测试集和训练集
    np.random.seed(0)
    permutation随机生成0-150的系列
    indices = np.random.permutation(len(iris_y))
    iris_X_train = iris_X[indices[:-30]]
    iris_y_train = iris_y[indices[:-30]]
    iris_X_test = iris_X[indices[-30:]]
    iris_y_test = iris_y[indices[-30:]]
    knn = KNeighborsClassifier()

    提供训练集进行顺利
    knn.fit(iris_X_train, iris_y_train)

    预测测试集鸢尾花类型
    predict_result = knn.predict(iris_X_test)
    print('预测结果',predict_result)

    计算预测的准确率
    print('预测准确率',knn.score(iris_X_test, iris_y_test))

    输出结果
    "D:\anaconda python\python3.6.exe" D:/machine_learning/coding/knntest.py
    数据量 (150, 4)
    预测结果 [0 2 0 0 2 0 2 1 1 1 2 2 2 1 0 1 2 2 0 1 1 2 1 0 0 0 2 1 2 0]
    预测准确率 0.933333333333
    Process finished with exit code 0

    相关文章

      网友评论

          本文标题:【python+机器学习1】python 实现 KNN

          本文链接:https://www.haomeiwen.com/subject/fqwksftx.html