非负矩阵分解

作者: Allen_wy | 来源:发表于2017-02-15 23:34 被阅读862次

    基本思想

    非负矩阵分解(Non-negative Matrix Factorization)于 1999 年由 Lee 和 Seung 发表于《Nature》上,其基本思想可以简单描述为:对矩阵中所有元素进行非负数的约束,即对于任意给定的非负矩阵 V,NMF 算法能够寻找一个非负矩阵 W 和一个非负矩阵 H,使 V=WH。原始矩阵中的列向量可以解释为矩阵 W 列向量的加权和,加权系数为 H 中对应列向量的元素。这种基于向量组合的表示方式具有很直观的语义解释,反映人类思维中「局部构成整体」的概念。

    矩阵分解的方法有很多,比如 PCA(主成分分析)、ICA(独立成分分析)、SVD(奇异值分解)、VQ(矢量量化)等。在这些方法中,原始矩阵 V 被近似分解为低秩的 V=WH 的形式,因子 W 和 H 中的元素可正可负,即使输入的初始矩阵的元素全为正,传统的秩削减算法也不能保证原始数据的非负性。在数学上,从计算的观点看,分解结果中存在负值是正确的,但负值元素在实际问题中往往是没有意义的(如图像、文档)。具体的比较参考文献 2。

    算法

    输入参数:V,r,MAXITER,其中 V 为被分解的矩阵,r 为降阶后 W 的秩,MAXITER 为迭代次数.

    输出参数:W,H

    1):初始化矩阵 W,H 为非负数,同时对  W 的每一列数据归一化.

    2):for i=1:MAXITER

                a:更新 H 矩阵一行元素:H(i,j)=H(i,j)*(B'*X)(i,j)/(B'*B*H)(i,j)

                b:更新 W 的一列元素:W(k,j)=W(k,j)*(V*H')(k,j)/(W*H*H')(k,j);

                 c :重新对 W 进行列归一化

    3)end

    参考文献

    1. Lee D D, Seung H S. Learning the parts of objects by non-negative matrix factorization[J]. Nature, 1999, 401(6755): 788-791.

    2. http://lijiancheng0614.github.io/2015/08/13/2015_08_13_NMF/

    3. 科学网博客

    4. http://blog.csdn.net/lilyth_lilyth/article/details/8958147

    5. LDA和NMF的区别?

    相关文章

      网友评论

        本文标题:非负矩阵分解

        本文链接:https://www.haomeiwen.com/subject/ttjcwttx.html