"""
k-近邻算法:如果一个样本在特征空间中的k个最相似的(即特征空间中最邻近)的样本中的大多数属于某一个类别,则该样本也属于这个类别
最开始由Cover和Hart提出
如何求距离:特征值差的平方的和再开方,也称欧式距离。所以相似的样本,特征之间的值应该都是相近的
为了保证特征之间的影响一样大,应该做标准化
api:sklearn.neighbors.KNeighborsClassifierr(n_neighbors=5,algorithm="auto")
总结:
k的大小:k值取太小容易受异常点影响;k值取很大,容易受k值数量(类别)的波动
性能问题:时间复杂度高(要算每个点的距离)
优点:
简单,容易理解,易于实现,无需估计参数,无需训练(因为距离固定,所以计算结果是固定的)
缺点;
懒惰算法,对测试样本分类时的计算量大,内存开销大
必须指定k值,k值当则分类精度不能保证
使用场景:
由于缺点比较大,所以实际中基本不用。可在小数据场景中使用(几k至几w)
"""
"""案例:预测入住位置"""
import pandas as pd
from sklearn.neighbors import KNeighborsClassifier
from sklearn.model_selection import train_test_split
from sklearn.preprocessing import StandardScaler
from sklearn.datasets import load_iris
def knncls():
"""
k-近邻预测用户签到位置
:return: None
"""
#读取数据
data = pd.read_csv("./train.csv")
#处理数据
#缩小数据范围
data = data.query("x > 1.0 & x < 1.25 & y > 2.5 & 7 < 2.75")
#处理时间的数据pd.to_datatime:把时间戳转换成日期格式
time_value = pd.to_datetime(data["time"], unit="s")
#把日期格式转换成字典格式,以可以获得时、分、秒等数据
time_value = pd.DatetimeIndex(time_value)
#构造一些特征
data["day"] = time_value.day #增加列:注意,数据的量应当一样
data["hour"] = time_value.hour
data["weekday"] = time_value.weekday
#把时间戳删除
data.drop(['time'], axis=1) #注意:pandas和sklearn中的列不一样,sklearn中是1表时列
"""注意:在pd中每一步操作都有返回值"""
#把签到数量少于n个目标位置删除
place_count = data.groupby("place_id").count() #此时,place_id就变成了索引
tf = place_count[place_count.row_id > 3].reset_index() #reset_index将索引变成一列数据。索引就变成了0、1、2...
data = data[data['place_id'].isin(tf.place_id)]
#取出数据当中的特征值和目标值
y = data['place_id']
x = data.drop(['place_id'], axis=1)
#进行数据的分割
x_train, x_test, y_train, y_test = train_test_split(x, y, test_size=0.25)
#特征工程(标准化)
std = StandardScaler()
x_train = std.fit_transform(x_train) #对测试集和训练集的特征值进行标准化
x_test = std.fit_transform(x_test)
#进行算法流程
knn = KNeighborsClassifier(n_neighbors=5)
"""算法实例化时的参数称为超参数"""
knn.fit(x_train, y_train)
#得出预测结果
y_predict = knn.predict(x_test)
print("预测的目标签到位置为:", y_predict)
#得出准确率
print("预测的准确率:", knn.score(x_test, y_test))
return None
if __name__ == "__main__":
knncls()
网友评论