美文网首页
无监督学习 - 降维 - NMF

无监督学习 - 降维 - NMF

作者: 闫_锋 | 来源:发表于2018-05-20 07:16 被阅读33次

非负矩阵分解
在距震中所有元素均为非负数约束条件之下的矩阵分解方法。

基本思想:
给定一个非负矩阵V,NMF能够找到一个非负矩阵W和一个非负矩阵H,使得矩阵W和H的乘积近似等于矩阵V中值。
V nm = W nk * H k*m

W矩阵:
基础图像矩阵,相当于从原矩阵V中抽取出来的特征。

H矩阵:
系数矩阵。

NMF能够广泛应用于图像分析,文本挖掘和语音处理等领域。

矩阵分解优化目标:
最小化W矩阵H矩阵的乘积和原始矩阵之间的差别。

基于KL散度的优化目标。

NMF人脸数据特征提取
目标:
已知Olivetti人脸数据共400个,每个数据是64*64大小。由于NMF分解的道德W矩阵相当于从原始矩阵中提取的特征,那么就可以使用NMF对400个人脸数据进行特征提取。

通过设置k的大小,设置提取的特征的数目。在本实验中设置k=6, 随后将提取的特征以图像的形式展示出来。

sklearn.decomposition.NMF
n_components: 用于指定分解后矩阵的单个维度k;
init: W矩阵和H矩阵的初始化方法,默认为'nndsvdar'
from numpy.random import RandomState
import matplotlib.pyplot as plt
from sklearn.datasets import fetch_olivetti_faces
from sklearn import decomposition
 
 
n_row, n_col = 2, 3
n_components = n_row * n_col
image_shape = (64, 64)
 
 
###############################################################################
# Load faces data
dataset = fetch_olivetti_faces(shuffle=True, random_state=RandomState(0))
faces = dataset.data
 
###############################################################################
def plot_gallery(title, images, n_col=n_col, n_row=n_row):
    plt.figure(figsize=(2. * n_col, 2.26 * n_row)) 
    plt.suptitle(title, size=16)
 
    for i, comp in enumerate(images):
        plt.subplot(n_row, n_col, i + 1)
        vmax = max(comp.max(), -comp.min())
 
        plt.imshow(comp.reshape(image_shape), cmap=plt.cm.gray,
                   interpolation='nearest', vmin=-vmax, vmax=vmax)
        plt.xticks(())
        plt.yticks(())
    plt.subplots_adjust(0.01, 0.05, 0.99, 0.94, 0.04, 0.)
 
     
plot_gallery("First centered Olivetti faces", faces[:n_components])
###############################################################################
 
estimators = [
    ('Eigenfaces - PCA using randomized SVD',
         decomposition.PCA(n_components=6,whiten=True)),
 
    ('Non-negative components - NMF',
         decomposition.NMF(n_components=6, init='nndsvda', tol=5e-3))
]
 
###############################################################################
 
for name, estimator in estimators:
    print("Extracting the top %d %s..." % (n_components, name))
    print(faces.shape)
    estimator.fit(faces)
    components_ = estimator.components_
    plot_gallery(name, components_[:n_components])
 
plt.show()

相关文章

  • 无监督学习 - 降维 - NMF

    非负矩阵分解在距震中所有元素均为非负数约束条件之下的矩阵分解方法。 基本思想:给定一个非负矩阵V,NMF能够找到一...

  • 机器学习-吴恩达笔记8(1)之K-means

    Week8-聚类与降维 无监督学习unsupervised learning 无监督学习简介 聚类和降维是无监督学...

  • 降维

    降维(Dimensionality Reduction)也是一种无监督学习。 目标 降维的目标之一是数据压缩,使得...

  • 机器学习算法

    机器学习的算法分监督算法和无监督 算法。监督算法包括回归算法,神经网络,SVM;无监督算法包括聚类算法,降维算法。...

  • 基于sklearn的主成分分析

    理论部分 特征降维 特征降维是无监督学习的一种应用:将n维的数据降维为m维的数据(n>m)。可应用于数据压缩等领域...

  • 无监督学习 - 降维 - PCA

    主成分分析 - PCA PCA是最常用的一种降维方法,通常用于高维数据集的探索与可视化,还可以用作数据压缩和预处理...

  • 技术积累

    数学基础 MCMC 采样 MCMC 采样 一、机器学习 1、无监督学习 聚类 Kmeans 聚类 降维 PCA 理...

  • 9.machine_learning_clusting_and_

    机器学习聚类与降维 机器学习中的聚类算法 聚类是一种经典的无监督学习方法,无监督学习的目标是通过对无标记训练样本的...

  • 哲哲的ML笔记(二十九:降维)

    什么是降维 降维是一种无监督学习问题,通过数据压缩,能加快我们的学习算法。如果我们收集的数据集,有许多特征时,会需...

  • 主成分分析(PCA)

    主成分分析(PCA)是一种能够极大提升无监督特征学习速度的数据降维算法 1 降维 举一个把2维降低到1维的例子im...

网友评论

      本文标题:无监督学习 - 降维 - NMF

      本文链接:https://www.haomeiwen.com/subject/fnqzdftx.html