降维就是一种对高维度特征数据预处理方法。降维的算法有很多,比如奇异值分解(SVD)、主成分分析(PCA)、因子分析(FA)、独立成分分析(ICA),本节主要介绍PCA主成分分析。
主成分分析算法(PCA)是最常用的线性降维方法,它的目标是通过某种线性投影,将高维的数据映射到低维的空间中,并期望在所投影的维度上数据的信息量最大(方差最大),以此使用较少的数据维度,同时保留住较多的原数据点的特性。PCA主成分分析法属于无监督学习算法并没有涉及对分类标签进行拟合。
PCA主成分分析Python代码实现
from sklearn.decomposition import PCA
#设置主成分数量为2以便我们进行可视化
pca = PCA(n_components=2)
pca.fit(X_scaled)
X_pca = pca.transform(X_scaled)
print(X_pca.shape)
X0 = X_pca[wine.target==0]
plt.scatter(X2[:,0],X2[:,1],c='r',s=60,edgecolor='k')
plt.legend(wine.target_names, loc='best')
plt.xlabel('component 1')
plt.ylabel('component 2')
plt.show()
输出结果如图
经过PCA降维的数据集
原始特征与PCA主成分之间的关系
plt.matshow(pca.components_, cmap='plasma')
plt.yticks([0,1],['component 1','component 2'])
plt.colorbar()
plt.xticks(range(len(wine.feature_names)),wine.feature_names,
rotation=60,ha='left')
plt.show()
主成分与各特征之间的关系
结果分析:在两个主成分中,分别涉及了所有的13个特征,如果某个特征对应的数字是正数,说明它和主成分之间是正相关的关系,如果是负数则相反。
网友评论