SKlearn - PCA数据降维

作者: taon | 来源:发表于2019-08-16 20:30 被阅读13次

    PCA是无监督数据降维方式,目的是将一个高维数据集转换为一个低维数据集。如今我们的数据集往往有成百上千维的特征,但并不是所有的特征都很重要,通过降维,去除那些不重要的特征。数据维度的降低了,同时计算机的运算效率也得到了提升。在人工智能技术刚起步的时候,人们关注的焦点在于算法的准确性,通过不断优化算法中的计算参数,来提高运算结果的准确率。今天,随着存储与通信技术的发展,数据规模变得空前的庞大,所以运算效率变成了我们不得不考虑的问题。

    假如我们有一份医患数据集,该数据集有许多患者特征,如:年龄、性别、身高、体重、职业、家庭住址、联系方式、身份证号、银行卡号、血压、血糖、心率、视力等一些列特征。这份数据集涉及到了患者的诸多隐私,是不能随便向外公开的。传统的方法是对该数据集进行匿名化处理,如将患者姓名用一串数字表示。但是在今天,通过多方面的数据匹配,仍然可以匹配出具体的患者。这时候数据降维技术就可以派上用场了,假设在降维之前,我们每一位患者有20个特征,我们的目标是把数据降到两维。这里降维不是去掉其中18个特征,保留剩下的两个特征,而是通过对20个特征进行压缩,将数据压缩成2维。降维前这20个特征,每一个都有其具体的实际含义,降维后的这两个特征是不可解释的,此时我们任何人都看不出来它的实际含义。如果我们要公开一些涉及到个人信息安全的数据集,那么在公开之前,就必须对数据集做处理。


    infor security.jpg

    之前我们讨论过PCA降维,整个过程我们采用的是Python的Numpy库(线性代数中的矩阵计算)来进行的,整个过程如下:
    1.数据的标准化处理 - 去均值
    2.计算协方差矩阵
    3.计算特征向量与特征值
    4.根据特征值的大小,选择前k个特征向量组成一个新的特征矩阵
    5.原始数据与新的特征矩阵相乘

    机器学习sklearn库直接为我们提供了PCA模块,我们可直接调用该模块对原始数据进行处理,更加简单方便。下面我们对PCA算法进行一个详细的说明。
    PCA的API文档

    sklearn.decomposition.PCA(n_components=None, 
    copy=True, whiten=False, svd_solver=’auto’,
     tol=0.0, iterated_power=’auto’, random_state=None)
    

    PCA算法中的参数说明,这里对官方的英文文档做一个翻译:

    • n_components:要保留的成分数量,其值类型可以设为整型,浮点型,字符串。如果不指定该值,n_components == min(n_samples, n_features);如果n_components == 'mle',并且svd_solver == 'full',则使用Minka’s MLE方法估计维度。当0 < n_components < 1时,并且svd_solver == 'full'时,方差值必须大于n_components,如果 n_components == 'arpack',则n_components必须严格的等于特征与样本数之间的最小值。
    • copy:默认为True值
    • whiten:默认为False
    • svd_solver:字符型数值,默认为auto,其余可选值有:full,arpack,randomized。算法根据数据的规模以及n_components来自动选择合适的参数。

    PCA的算法属性

    • components_:特征变换空间(特征矩阵),根据我们指定的n_components = k的值,选择方差最大的k个值所对应的的特征向量组成的特征矩阵。
    • explained_variance_:n_components所对应的的方差。
    • explained_variance_ratio_:不同特征方差的占比。
    • singular_values_ :特征值,与前面的特征向量conponents_是一一对应的。

    样例的演示
    我们使用sklearn自带的数据集boston(波士顿地区房价数据集),该数据集有506个样本,13个特征,像房屋面积,区位,卧室数量等等以及价格(标签值)。pca是一种无监督降维算法,所以我们不使用价格数据。下面是pca的代码实现过程:

    from sklearn.decomposition import PCA
    from sklearn.preprocessing import StandardScaler
    from sklearn import datasets
    
    boston_house_price = datasets.load_boston()#导入boston房价数据集
    X = boston_house_price .data#获取特征数据
    #第一步,对数据进行标准化处理
    X_std = StandardScaler().fit_transform(X)
    #实例化PCA
    pca = PCA(n_components = 3)
    #训练数据
    pca.fit(X_std)
    
    #使用PCA的属性查看特征值
    pca.singular_values_
    array([55.6793095 , 26.93022859, 25.07516773])
    #使用PCA的属性查看特征值对应的特征向量
    pca.components_
    array([[ 0.2509514 , -0.25631454,  0.34667207,  0.00504243,  0.34285231,
            -0.18924257,  0.3136706 , -0.32154387,  0.31979277,  0.33846915,
             0.20494226, -0.20297261,  0.30975984],
           [-0.31525237, -0.3233129 ,  0.11249291,  0.45482914,  0.21911553,
             0.14933154,  0.31197778, -0.34907   , -0.27152094, -0.23945365,
            -0.30589695,  0.23855944, -0.07432203],
           [ 0.24656649,  0.29585782, -0.01594592,  0.28978082,  0.12096411,
             0.59396117, -0.01767481, -0.04973627,  0.28725483,  0.22074447,
            -0.32344627, -0.3001459 , -0.26700025]])
    #对原始的数据集进行转换
    new_data = X.dot(pca.components_.T)
    print(new_data[:10])#打印出转换后的前十行数据做一个观察
    array([[ 38.89018107,  32.93532391, -51.87396066],
           [ 33.02343232,  54.79866941, -71.20799688],
           [ 26.53873512,  48.76840918, -67.85363879],
           [ 12.75698667,  47.78351826, -72.33882223],
           [ 15.65240562,  50.77871883, -73.70920814],
           [ 17.71686561,  51.4336294 , -73.35783472],
           [ 51.22331968,  29.63835929, -51.11003359],
           [ 62.1527616 ,  38.52240664, -53.72636333],
           [ 68.87661773,  36.34017288, -53.90249412],
           [ 60.21849172,  32.80458593, -50.06565433]])
    #此时的数据,我们就不知道它具体代表的什么含义了
    

    图形化PCA降维前后的数据对比
    我们用sklearn中iris花数据集来举例,该数据集有四个特征,花萼长度、花萼宽度、花瓣长度、花瓣宽度,下面是画图过程的代码实现。

    iris.jpg
    import matplotlib.pyplot as plt
    from mpl_toolkits.mplot3d import Axes3D
    from sklearn import datasets
    from sklearn.decomposition import PCA
    
    # import some data to play with
    iris = datasets.load_iris()
    X = iris.data[:, :2]  # we only take the first two features.
    y = iris.target
    
    x_min, x_max = X[:, 0].min() - .5, X[:, 0].max() + .5
    y_min, y_max = X[:, 1].min() - .5, X[:, 1].max() + .5
    
    plt.figure(2, figsize=(8, 6))
    plt.clf()
    
    # Plot the training points
    plt.scatter(X[:, 0], X[:, 1], c=y, cmap=plt.cm.Set1,
                edgecolor='k')
    plt.xlabel('Sepal length')
    plt.ylabel('Sepal width')
    
    plt.xlim(x_min, x_max)
    plt.ylim(y_min, y_max)
    plt.xticks(())
    plt.yticks(())
    
    # To getter a better understanding of interaction of the dimensions
    # plot the first three PCA dimensions
    fig = plt.figure(1, figsize=(8, 6))
    ax = Axes3D(fig, elev=-150, azim=110)
    X_reduced = PCA(n_components=3).fit_transform(iris.data)
    ax.scatter(X_reduced[:, 0], X_reduced[:, 1], X_reduced[:, 2], c=y,
               cmap=plt.cm.Set1, edgecolor='k', s=40)
    ax.set_title("First three PCA directions")
    ax.set_xlabel("1st eigenvector")
    ax.w_xaxis.set_ticklabels([])
    ax.set_ylabel("2nd eigenvector")
    ax.w_yaxis.set_ticklabels([])
    ax.set_zlabel("3rd eigenvector")
    ax.w_zaxis.set_ticklabels([])
    
    plt.show()
    

    降维前,我们选取了iris数据集中的两个特征sepal length(花萼长度)和sepal width(花萼宽度)来绘制数据分布,由图可以看出,数据集中有三种花,但是三者相互混杂,难以区分清楚。


    original data.png

    iris数据集本有4个特征,这时我们采用pca算法,将4维数据变化为3维。从图中的结果可以看出,经过变换后,三种类别区分的更加清楚了。


    pca data.png

    PCA降维小结
    1.实现过程有两种:Python的Numpy库;SKlearn的PCA模块,两者的计算结果是相同的。
    2.数据降维的结果不一定都是好的,所以在解决实际问题,要同时计算降维前与降维后的结果,进行比较。
    3.降维后的数据是不可解释的,但不影响最终的计算结果。

    相关文章

      网友评论

        本文标题:SKlearn - PCA数据降维

        本文链接:https://www.haomeiwen.com/subject/aptfsctx.html