kNN

作者: scpy | 来源:发表于2018-12-24 13:47 被阅读0次

    kNN分类算法的评价

    优点

    • 1.简单,易于理解,易于实现,无需估计参数,无需训练;
      1. 适合对稀有事件进行分类;
    • 3.特别适合于多分类问题(multi-modal,对象具有多个类别标签), kNN比SVM的表现要好。

    缺点

    • 1.样本不平衡时,会使结果出现偏差
    • 2.计算量庞大
    • 3.由于不需要训练,所以算法的可控性比较差
    import numpy as np
    import tensorflow as tf
    
    #这里使用TensorFlow自带的数据集作为测试,以下是导入数据集代码 
    from tensorflow.examples.tutorials.mnist import input_data
    mnist = input_data.read_data_sets("/tmp/data/", one_hot=True)
    
    Xtrain, Ytrain = mnist.train.next_batch(5000)  #从数据集中选取5000个样本作为训练集
    Xtest, Ytest = mnist.test.next_batch(200)    #从数据集中选取200个样本作为测试集
    
    # 输入占位符
    xtr = tf.placeholder("float", [None, 784])
    xte = tf.placeholder("float", [784])
    
    # 计算L1距离
    distance = tf.reduce_sum(tf.abs(tf.add(xtr, tf.negative(xte))), reduction_indices=1)
    # 获取最小距离的索引
    pred = tf.arg_min(distance, 0)
    
    #分类精确度
    accuracy = 0.
    
    # 初始化变量
    init = tf.global_variables_initializer()
    
    # 运行会话,训练模型
    with tf.Session() as sess:
    
        # 运行初始化
        sess.run(init)
    
        # 遍历测试数据
        for i in range(len(Xtest)):
            # 获取当前样本的最近邻索引
            nn_index = sess.run(pred, feed_dict={xtr: Xtrain, xte: Xtest[i, :]})   #向占位符传入训练数据
            # 最近邻分类标签与真实标签比较
            print("Test", i, "Prediction:", np.argmax(Ytr[nn_index]), \
                "True Class:", np.argmax(Ytest[i]))
            # 计算精确度
            if np.argmax(Ytrain[nn_index]) == np.argmax(Ytest[i]):
                accuracy += 1./len(Xtest)
    
        print("Done!")
        print("Accuracy:", accuracy)
    

    相关文章

      网友评论

          本文标题:kNN

          本文链接:https://www.haomeiwen.com/subject/baxzkqtx.html