美文网首页机器学习
机器学习 - k近邻法

机器学习 - k近邻法

作者: tx_6df3 | 来源:发表于2018-11-06 23:13 被阅读0次

k 近邻法

1、K近邻法定义

给定一个训练数据集,对于新输入的实例,在训练数据集中找到与该实例距离最近的K个实例,看这K个实例多数属于某个类,则将该实例分为这个类。

2.K近邻法算法

2.1 k近邻算法步骤

输入:数据集T=\lbrace (x_1,y_1),(x_2,y_2),...,(x_N,y_N) \rbrace,其中 x_i \in X \subseteq R^n,y \in Y = \lbrace c_1,c_2,...,c_K \rbrace,i=1,2,..,N;实例特征向量x
输出:实例s所属的类y
步骤:
(1)根据给定的距离度量,在训练集T中找出与x最近邻的K个点,涵盖着K个点的x的邻域记作N_k(x);
(2)在N_k(x)中,根据分类决策规则(例如多数表决)决定x所属于的类别y
y = argmax_{c_j} \sum_{x_i \in N_k(x)} I(y_i = c_i),i=1,2,...,N;j=1,2,..,K
其中I为指示函数,即当y_i=c_j时,I为1,否则I为0。
K近邻算法没有显示的学习过程。k近邻法的特殊情况是K=1的情形,称为最近邻算法。

2.2实现

import numpy as np

# 1.数据集(扩充perceptron中的数据),6个正例,3个负例
data_coord = np.asarray(((3, 3), (4, 3), (5, 5), (4.5), (5, 4), (3, 5),
                         (1, 1), (0.0), (1, -1)))
data_label = np.asarray((1, 1, 1, 1, 1, 1,
                         -1, -1, -1))

# 2.测试数据
test_data = np.asarray((0.3,0.4))
K = 2

# 计算两点的距离(两个向量)
def get_dis(a,b):
    return np.linalg.norm(a - b)


# knn
def knn(test_data, train_data,train_label, K):
    max_distance = np.Inf
    # test_data k个邻居的距离
    knn_list = list((max_distance-i) for i in range(K))
    # test_data k个邻居,的下标
    label_list = list(-1 for i in range(K))
    label = 0

    for i in range(len(train_label)):
        vec_train = train_data[i]
        label_train = train_label[i]
        # 计算train集合中,每个点与test_data的距离
        test_train_dist = get_dis(test_data, vec_train)
        curr_max_knn = np.argmax(knn_list)
        curr_max_dist = knn_list[curr_max_knn]
        # 找到train集合中,跟test_data距离最近的K个点
        if test_train_dist < curr_max_dist:
            knn_list[curr_max_knn] = curr_max_dist
            label_list[curr_max_knn] = label_train

    # 在knn_list中,“投票表决”
    print("label_list = ",label_list)
    outcome = np.sum(label_list)
    if outcome > 0:
        label = 1
    elif outcome < 0:
        label = -1
    print("label = ",label)
    return label;

# run it
knn(test_data = test_data,train_data=data_coord,train_label=data_label,K=K)

结果:test_data属于-1类

参考与致谢:
[1]《统计学习方法》
[2] WenDesi/lihang_book_algorithm

相关文章

  • 统计学习方法之kNN算法

    k 近邻是什么 k 近邻法是机器学习中最基本的分类和回归方法,也称为kNN算法。通常k近邻法用于分类问题。k近邻法...

  • 3.1.1.10 降维与度量学习

    降维与度量学习 原理 《机器学习》周志华 10.1 k近邻学习 k近邻(k-Nearest Neighbor, k...

  • 机器学习 - k近邻法

    k 近邻法 1、K近邻法定义 给定一个训练数据集,对于新输入的实例,在训练数据集中找到与该实例距离最近的K个实例,...

  • k 近邻法

    k 近邻法 k 近邻算法 k 近邻模型 k 近邻法的实现:kd 树 搜索 kd 树 k 近邻模型实现 k 近邻模型...

  • 机器学习 Day 6 | K Nearest Neighbour

    机器学习第六天 K近邻法(K-NN) 什么是K-NN?K近邻算法是一种简单但也是最常用的分类算法,它特可以应用于回...

  • KNN原理及Python代码实现(超详细版)

    一、原理 1. 概述 K近邻法(k-nearest neighbors,KNN)是一种有监督的学习算法,也是机器学...

  • 统计机器学习-k近邻法

    k近邻法既可以用于分类,也可以用于回归,这里只讨论分类的k近邻法。k近邻法的思路是:给定一个输入,在训练集中找出个...

  • 机器学习笔记(7):K近邻

    本文来自之前在Udacity上自学机器学习的系列笔记。这是第7篇,介绍了监督学习中的K近邻模型。 K近邻 K近邻模...

  • k近邻算法(kNN)

      K近邻法(k-nearst neighbors,KNN)常用于有监督学习,是一种很基本的机器学习方法,既可以做...

  • 机器学习算法-KNN算法

    机器学习算法-K近邻算法 本文中介绍的机器学习中最基础的一个算法:k-近邻算法,将从如下方面展开: 算法概述 k近...

网友评论

    本文标题:机器学习 - k近邻法

    本文链接:https://www.haomeiwen.com/subject/asnpxqtx.html