K近邻

作者: 叫兽吃橙子 | 来源:发表于2019-11-05 20:25 被阅读0次

搭建基于K近邻的图像识别

3.2 图像的读取以及表示

读取打印图片

4.2 特征编码技术

假如我们直接使用标签编码来代表这里每一个类别特征是有问题的。那具体存在什么问题呢? 可以这么想,如果我们直接把类别特征看作是具体的数比如0,1,2… 那这时候,数与数之间是有大小关系的,比如2要大于1,1要大于0,而且这些大小相关的信息必然会用到模型当中。

但这就跟原来特征的特点产生了矛盾,因为对于深度学习,数据分析来说它们之间并不存在所谓的“大小”,可以理解为平行关系。所以对于这类特征来说,直接用0,1,2.. 的方式来表示是存在问题的,所以结论是不能这么做。

那我们该如何表达一个类别性特征呢? 答案就是独热编码。

独热编码

变量离散化会增加模型的非线性化。离散化之后再转化为独热编码。逻辑回归和线性回归经常用。简单的方法,落在每个区间的样本数量比较接近。


离散化

4.3 二手车价格预测:KNN用于回归

KNN回归
#导入几个关键词的库。这里seaborn库用来画一个heatmap。
import pandas as pd
import matplotlib
import matplotlib.pyplot as plt
import numpy as np
import seaborn as sns

#利用pandas读取数据并打印 可以看得到具体数据了,每一列都是一个特征值。
#读取数据
df = pd.read_csv('/home/anaconda/data/RGZNXLY/ch4/data.csv')
df # data frame

#做了特征的处理,把类别型特征转换成了独热编码的形式。这里针对Color和Type做了独热编码操作。
#而对于Brand没有做任何操作,因为在给定的数据里Brand都是一样的,可以去掉了. 
#可以看出来表格中多了几个列,分别以Color:和Type:开头,表示的就是转换成独热编码之后的结果。
# 特征处理
# 把颜⾊独热编码
df_colors = df['Color'].str.get_dummies().add_prefix('Color: ')
# 把类型独热编码
df_type = df['Type'].apply(str).str.get_dummies().add_prefix('Type: ')
# 添加独热编码数据列
df = pd.concat([df, df_colors, df_type], axis=1)
# 去除独热编码对应的原始列
df = df.drop(['Brand', 'Type', 'Color'], axis=1)

df

#第一步先看一下数据特征之间的相关性,这里使用了corr()函数来计算特征之间的相关性。
#之后通通过sns模块来可视化相关性。 颜色越深的代表相关性越大。
# 数据转换
matrix = df.corr()
f, ax = plt.subplots(figsize=(8, 6))
sns.heatmap(matrix, square=True)
plt.title('Car Price Variables')

#导入KNN相关的库以及其他相关的库。这里StandardScaler用来做特征的归一化,把原始特征转换成均值为0方差为1的高斯分布。
from sklearn.neighbors import KNeighborsRegressor
from sklearn.model_selection import train_test_split
from sklearn import preprocessing
from sklearn.preprocessing import StandardScaler
import numpy as np

#这部分代码主要用来做特征的归一化。这里需要注意的一点是特征的归一化的标准一定要来自于训练数据,之后再把它应用在测试数据上。
#因为实际情况下,测试数据是我们看不到的,也就是统计不到均值和方差。
X = df[['Construction Year', 'Days Until MOT', 'Odometer']]
y = df['Ask Price'].values.reshape(-1, 1)
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=41)

X_normalizer = StandardScaler() # N(0,1)
X_train = X_normalizer.fit_transform(X_train)
X_test = X_normalizer.transform(X_test)

#这部分主要用来训练KNN模型,以及用KNN模型做预测,并把结果展示出来。
#这里我们使用了y_normalizer.inverse_transform,因为我们在训练的时候把预测值y也归一化了,所以最后的结论里把之前归一化的结果重新恢复到原始状态。 
#在结果图里,理想情况下,假如预测值和实际值一样的话,所有的点都会落在对角线上,但实际上现在有一些误差。
y_normalizer = StandardScaler()
y_train = y_normalizer.fit_transform(y_train)
y_test = y_normalizer.transform(y_test)

knn = KNeighborsRegressor(n_neighbors=2)
knn.fit(X_train, y_train.ravel())

#Now we can predict prices:
y_pred = knn.predict(X_test)
y_pred_inv = y_normalizer.inverse_transform(y_pred)
y_test_inv = y_normalizer.inverse_transform(y_test)

# Build a plot
plt.scatter(y_pred_inv, y_test_inv)
plt.xlabel('Prediction')
plt.ylabel('Real value')

# Now add the perfect prediction line
diagonal = np.linspace(500, 1500, 100)
plt.plot(diagonal, diagonal, '-r')
plt.xlabel('Predicted ask price')
plt.ylabel('Ask price')
plt.show()

#打印最终的结果,也就是预测的值 可以看到实际预测的值
print(y_pred_inv)

#打印KNN模型里的具体的变量
knn 

4.4 二手车价格预测:KNN用于回归

复杂度
时间复杂度
空间复杂度
时间
时间
排列
  • 递归复杂度分析


    递归
    时间复杂度
    空间复杂度
    空间
  • KNN复杂度


    image.png
KNN 提效
方法一:选出有代表性的样本
方法三:KD树
KD树
选择划分的标准
1
2
3
4
5
6
7
8
  • 带权重的KNN
    也可以计算所有的样本


    1.png
    2
    3

相关文章

  • k 近邻法

    k 近邻法 k 近邻算法 k 近邻模型 k 近邻法的实现:kd 树 搜索 kd 树 k 近邻模型实现 k 近邻模型...

  • 统计学习方法之kNN算法

    k 近邻是什么 k 近邻法是机器学习中最基本的分类和回归方法,也称为kNN算法。通常k近邻法用于分类问题。k近邻法...

  • KNN算法及算法实现

    K近邻法 k近邻(k-nearest neighbor,k-NN)十一中基本分类与回归方法,k近邻法假设给定一个训...

  • “k 近邻算法”综述

    “k 近邻算法”综述 本来题目想叫“白话 k 近邻算法”,后来想想,“k 近邻算法” 的描述几乎就是“白话”,所以...

  • 3.1.1.10 降维与度量学习

    降维与度量学习 原理 《机器学习》周志华 10.1 k近邻学习 k近邻(k-Nearest Neighbor, k...

  • k近邻算法

    k近邻算法简介 k近邻算法(k-nearest neighbor, k-NN)是1967年由Cover T和Har...

  • 二:K近邻

    简介 K近邻算法,或者说K最近邻(kNN,k- NearestNeighbor)分类算法是数据挖掘分...

  • 机器学习笔记-k近邻算法

    K-近邻算法概述(KNN) k近邻法1968年由Cover和Hart提出。k-近邻算法采用测量不同特征值之间的距离...

  • 数据科学(机器学习:k-近邻算法)

    k-近邻法简介 k近邻法(k-nearest neighbor, k-NN)是1967年由Cover T和Hart...

  • KNN学习笔记

    kNN思想简介 kNN(k-NearestNeighbor),也就是k最近邻算法。顾名思义,所谓K最近邻,就是k个...

网友评论

      本文标题:K近邻

      本文链接:https://www.haomeiwen.com/subject/yhpebctx.html