前几天学了K近邻的分类问题,这几天开始学习K近邻的回归问题。
先通过简单的三组图对比,K分别取1,3,5时的预测结果
K=1
mglearn.plots.plot_knn_regression(n_neighbors=1)
输出结果:
K=3
mglearn.plots.plot_knn_regression(n_neighbors=3)
输出结果:
image.png
K=5
mglearn.plots.plot_knn_regression(n_neighbors=5)
输出结果:
image.png
与分类问题的K近邻算法类似,回归问题的K近邻,也是通过选择测试值附近的K个数据的平均值作为预测值。
KNeighborsRegressor
接下来详细看看scikit-learn中实现的回归KNN算法吧,与之前看的KNeighborsClassifier类似的。
from sklearn.neighbors import KNeighborsRegressor
X,y= mglearn.datasets.make_wave(n_samples=40)
Xtrain,Xtest,ytrain,ytest=train_test_split(X,y,random_state=0)
reg=KNeighborsRegressor(n_neighbors=3)
reg.fit(Xtrain,ytrain)
print("test result is :\n{}".format(reg.predict(Xtest)))
print("test R^2 is {:.2f}".format(reg.score(Xtest,ytest)))
输出结果:
test result is :
[-0.05396539 0.35686046 1.13671923 -1.89415682 -1.13881398 -1.63113382
0.35686046 0.91241374 -0.44680446 -1.13881398]
test R^2 is 0.83
- 在回归问题中,使用R平方来度量准确性,0.83则相对拟合效果较好。
网友评论