美文网首页
Matrix Factorization推荐系统keras实现

Matrix Factorization推荐系统keras实现

作者: 崔吉龙 | 来源:发表于2019-03-11 19:47 被阅读0次

    问题描述

    Matrix Factorization推荐系统是非常高效而且又是端到端的解决方案,利用keras机器学习库,可以非常简单就能实现,实现之后我们也可以对矩阵分解推荐算法有更加深入的了解。

    定义模型

    总体函数:

    \hat{R} = W^{T}U

    单个用户i对商品j的喜好程度,模型函数:

    \hat{r}_{ij}=w_i^Tu_j

    所以损失函数为

    J = (\hat{R} - R)^2

    J = \sum_{i,j\in \Omega}(r_{ij} - \hat{r}_{ij})^2=\sum_{i,j\in\Omega}(r_{ij}-w^T_{i}u_{j})^2

    数学实现

    引入头文件

    from __future__ import print_function, division
    from builtins import range, input
    
    import pickle
    import numpy as np
    import pandas as pd
    import matplotlib.pyplot as plt
    from sklearn.utils import shuffle
    from keras.models import Model
    from keras.layers import Input, Embedding, Dot, Add, Flatten
    from keras.regularizers import l2
    from keras.optimizers import SGD, Adam
    

    读入数据,并得到最大的用户id和最大的商品id

    # load in the data
    df = pd.read_csv('ml-20m/ratings.csv')
    N = df.userId.max() + 1 # number of users
    M = df.movieId.max() + 1 # number of movies
    

    分割数据源

    #split into train and test
    df = shuffle(df)
    cutoff = int(0.8* len(df))
    df_train = df.iloc[:cutoff]
    df_test = df.iloc[cutoff:]
    

    初始化变量

    # initialize variables
    K = 10 # latent dimensionality
    mu = df_train.rating.mean()
    epochs = 25
    reg = 0. # regularization penalty
    

    其中K是,我们希望通过学习得到的隐藏特征个数。

    真正的模型

    # keras model
    
    # 输入层定义,有两个输入,分别是用户id和商品id
    u = Input(shape=(1,))
    m = Input(shape=(1,))
    
    # Embedding层负责把输入的单个数字转化为更深维度的数组
    u_embedding = Embedding(N, K, embeddings_regularizer=l2(reg))(u) #(None, 1, K)
    m_embedding = Embedding(M, K, embeddings_regularizer=l2(reg))(m) #(None, 1, K)
    
    u_bias = Embedding(N, 1, embeddings_regularizer=l2(reg))(u) # (None, 1, 1)
    m_bias = Embedding(M, 1, embeddings_regularizer=l2(reg))(m) # (None, 1, 1)
    x = Dot(axes=2)([u_embedding, m_embedding]) # (None, 1, 1)
    
    x = Add()([x, u_bias, m_bias]) # (None, 1, 1)
    x = Flatten()(x)  # (None, 1)
    
    model = Model(inputs=[u, m], outputs=x)
    

    Embedding层着重理解

    请参看我之前写的一篇文章,Keras里Embedding层的理解
    Embedding层其实是实现了一个(NxK)的矩阵,刚好是我们在前面的理论知识当中所希望的那样。通过Embedding层,让输入的单个整数(用户id或者商品id),变成了通过10个隐藏特征来描述的项,比如人通过这10个特征来描述,物品也通过这10个特征来描述。

    点乘的作用着重理解

    x = Dot(axes=2)([u_embedding, m_embedding]) # (N, 1, 1)
    u_embedding 是通过10个隐藏特征来表示一个用户,
    m_embedding 是通过10个隐藏特征来表示一个物品,
    u_embedding和m_embedding的点乘,获得的一个值就代表的是用户和物品之间的匹配度。

    compile

    model.compile(
            loss='mse',
            optimizer = 'adam', #SGD(lr=0.01, momentum=0.9),
            metrics=['mse'])
    
    print(model.summary())
    

    Training

    r = model.fit(
            x=[df_train.userId.values, df_train.movieId.values],
            y=df_train.rating.values - mu,
            epochs = epochs,
            batch_size = 128,
            validation_data=(
                    [df_test.userId.values, df_test.movieId.values],
                    df_test.rating.values - mu
        )
    )
    

    Plotting

    # plot losses
    plt.plot(r.history['loss'], label="train loss")
    plt.plot(r.history['val_loss'], label='test loss')
    plt.legend()
    plt.show()
    # plot mse
    plt.plot(r.history['mse'], label='train mse')
    plt.plot(r.history['vmse'], label='test mse')
    plt.legend()
    plt.show()
    

    还有一个疑问

    这里为什么没有看到求导数的相关实现,我们在数学原理那一章,不是说了好多,如何求导的问题吗?其实是这样的如果你打算用原始的python来实现这个算法,确实是需要你自己求得导师的,但是在keras或者tensorflow等这些平台里边,计算导数和反向求导其实在fit函数里已经自动帮我们做了。我们只需要设计模型(就是前向传递),而不用考虑后想传递,那么我们在数学原理那一节,推理个半天是什么意思呢?如果不是用原始的python自己实现模型,只是推理这个模型是否可行就可以了。

    总结

    Matrix Factorization 推荐算法的关键是找到两个小维度的矩阵W和U,通过W和U之间的点乘,就能表示他们之间的关系,也就是表示出用户和商品之间的匹配度,从而完成产品的推荐。
    但是目前这个算法比较运算比较久,所以没有贴出图片给大家看最后的结果。

    相关文章

      网友评论

          本文标题:Matrix Factorization推荐系统keras实现

          本文链接:https://www.haomeiwen.com/subject/cztupqtx.html