美文网首页
无监督学习-降维- PCA方法及其应用

无监督学习-降维- PCA方法及其应用

作者: juriau | 来源:发表于2018-10-16 11:05 被阅读54次

1、PCA介绍

  • 主成分分析(Principal Component Analysis,PCA)是最常用的一种降维方法,通常用于高维数据集的探索与可视化,还可以用作数据压缩和预处理等。

  • PCA可以把具有相关性的高维变量合成为线性无关的低维变量,称为主成分。主成分能够尽可能保留原始数据的信息。

->相关术语

在介绍PCA的原理之前需要回顾涉及到的相关术语:

  • 方差:
    是各个样本和样本均值的差的平方和的均值,用来度量一组数据的分散程度。


    image.png
  • 协方差:
    用于度量两个变量之间的线性相关性程度,若两个变量的协方差为0,则可认为二者线性无关。


    image.png
  • 协方差矩阵
    协方差矩阵则是由变量的协方差值构成的矩阵(对称阵)。

  • 特征向量和特征值


    image.png

矩阵的特征向量是描述数据集结构的非零向量,并满足如下公式:,A是方阵, v->是特征向量,lamda是特征值。

->算法原理

矩阵的主成分就是其协方差矩阵对应的特征向量,按照对应的特征值大小进行排序,最大的特征值就是第一主成分,其次是第二主成分,以此类推。

image.png

2、实例编写

->实验目标

已知鸢尾花数据是4维的,共三类样本。使用PCA实现对鸢尾花数据进行降维,实现在二维平面上的可视化。

->鸢尾花数据集介绍

鸢尾花数据集采集的是鸢尾花的测量数据以及其所属的类别。
测量数据包括:萼片长度、萼片 宽度、花瓣长度、花瓣宽度。
类别共分为三类:Iris Setosa, Iris Versicolour,Iris Virginica。该 数据集可用于多分类问题。


image.png

使用sklearn.datasets. load_iris即可加载相关数据集 其参数有:

  • return_X_y:若为True,则以(data, target)形式返回数 据;默认为False,表示以字典形式返回数据全部信息(包括 data和target)。

示例:

>>> from sklearn.datasets import load_iris >>> iris = load_iris()
>>> print(iris.data.shape)
(150, 4)
>>> print(iris.target.shape)
(150, )
>>> list(iris.target_names) ['setosa', 'versicolor', 'virginica']

->sklearn中的PCA

在sklearn库中,可以使用sklearn.decomposition.PCA加载PCA进行 降维,主要参数有:

  • n_components:指定主成分的个数,即降维后数据的维度
  • svd_solver :设置特征值分解的方法,默认为‘auto’,其他可选有
    ‘full’, ‘arpack’, ‘randomized’。

代码:

import matplotlib.pyplot as plt
from sklearn.decomposition import PCA
from sklearn.datasets import load_iris
import numpy as np

data = load_iris()

y = data.target#使用y表示数据集中的标签
X = data.data#使用X表示数据集中的属性数据
pca = PCA(n_components=2)#加载PCA算法,设置降维后主成分数目为2

reduced_X = pca.fit_transform(X)#对原始数据进行降维,保存在reduced_X中

red_x, red_y = [], []
blue_x, blue_y = [], []
green_x, green_y = [], []

for i in range(len(reduced_X)):
    if y[i] == 0:
        red_x.append(reduced_X[i][0])
        red_y.append(reduced_X[i][1])
    elif y[i] == 1:
        blue_x.append(reduced_X[i][0])
        blue_y.append(reduced_X[i][1])
    else:
        green_x.append(reduced_X[i][0])
        green_y.append(reduced_X[i][1])

plt.scatter(red_x, red_y, c='r', marker='X')
plt.scatter(blue_x, blue_y, c='b', marker='D')
plt.scatter(green_x, green_y, c='g', marker='.')

输出


image.png

可以看出,降维后的数据仍能够清晰地分成三类。 这样不仅能削减数据的维度, 降低分类任务的工作量,还 能保证分类的质量。

相关文章

  • 无监督学习-降维- PCA方法及其应用

    1、PCA介绍 主成分分析(Principal Component Analysis,PCA)是最常用的一种降维方...

  • 5 主成分分析PCA

    主成分分析(PCA)是最常见的降维算法。 PCA是非监督的机器学习算法 主要用于数据的降维 其他应用:可视化、去噪...

  • R 数据可视化:PCA 主成分分析图

    简介 主成分分析(Principal Component Analysis,PCA)是一种无监督的数据降维方法,通...

  • 预处理:主成分分析与白化

    UFLDL Tutorial学习笔记 PCA 主成分分析(PCA)是一种能够极大提升无监督特征学习速度的数据降维算...

  • PCA

    降维算法 PCA主成分分析, 是无监督的降维方法, 可以将你的数据降低到n-1维. 它有几种不同的方式去解释原理,...

  • 技术积累

    数学基础 MCMC 采样 MCMC 采样 一、机器学习 1、无监督学习 聚类 Kmeans 聚类 降维 PCA 理...

  • R实战 | OPLS-DA(正交偏最小二乘判别分析)筛选差异变量

    主成分分析(PCA)是一种无监督降维方法,能够有效对高维数据进行处理。但PCA对相关性较小的变量不敏感,而PLS-...

  • 无监督学习 - 降维 - PCA

    主成分分析 - PCA PCA是最常用的一种降维方法,通常用于高维数据集的探索与可视化,还可以用作数据压缩和预处理...

  • 降维——线性判别分析与主成分分析

    同样作为线性降维的方式,PCA是非监督的降维算法,而LDA是有监督的算法。虽然他俩在应用方面是有区别的,但是从数学...

  • PCA原理及实现-R

    PCA分析与解释 PCA是一种无参数的数据降维方法,常用的机器学习算法一种,这篇文章主要从PCA应用于解释两个方面...

网友评论

      本文标题:无监督学习-降维- PCA方法及其应用

      本文链接:https://www.haomeiwen.com/subject/jvwczftx.html