问题描述
Matrix Factorization推荐系统是非常高效而且又是端到端的解决方案,利用keras机器学习库,可以非常简单就能实现,实现之后我们也可以对矩阵分解推荐算法有更加深入的了解。
定义模型
总体函数:
单个用户i对商品j的喜好程度,模型函数:
所以损失函数为
数学实现
引入头文件
from __future__ import print_function, division
from builtins import range, input
import pickle
import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
from sklearn.utils import shuffle
from keras.models import Model
from keras.layers import Input, Embedding, Dot, Add, Flatten
from keras.regularizers import l2
from keras.optimizers import SGD, Adam
读入数据,并得到最大的用户id和最大的商品id
# load in the data
df = pd.read_csv('ml-20m/ratings.csv')
N = df.userId.max() + 1 # number of users
M = df.movieId.max() + 1 # number of movies
分割数据源
#split into train and test
df = shuffle(df)
cutoff = int(0.8* len(df))
df_train = df.iloc[:cutoff]
df_test = df.iloc[cutoff:]
初始化变量
# initialize variables
K = 10 # latent dimensionality
mu = df_train.rating.mean()
epochs = 25
reg = 0. # regularization penalty
其中K是,我们希望通过学习得到的隐藏特征个数。
真正的模型
# keras model
# 输入层定义,有两个输入,分别是用户id和商品id
u = Input(shape=(1,))
m = Input(shape=(1,))
# Embedding层负责把输入的单个数字转化为更深维度的数组
u_embedding = Embedding(N, K, embeddings_regularizer=l2(reg))(u) #(None, 1, K)
m_embedding = Embedding(M, K, embeddings_regularizer=l2(reg))(m) #(None, 1, K)
u_bias = Embedding(N, 1, embeddings_regularizer=l2(reg))(u) # (None, 1, 1)
m_bias = Embedding(M, 1, embeddings_regularizer=l2(reg))(m) # (None, 1, 1)
x = Dot(axes=2)([u_embedding, m_embedding]) # (None, 1, 1)
x = Add()([x, u_bias, m_bias]) # (None, 1, 1)
x = Flatten()(x) # (None, 1)
model = Model(inputs=[u, m], outputs=x)
Embedding层着重理解
请参看我之前写的一篇文章,Keras里Embedding层的理解
Embedding层其实是实现了一个(NxK)的矩阵,刚好是我们在前面的理论知识当中所希望的那样。通过Embedding层,让输入的单个整数(用户id或者商品id),变成了通过10个隐藏特征来描述的项,比如人通过这10个特征来描述,物品也通过这10个特征来描述。
点乘的作用着重理解
x = Dot(axes=2)([u_embedding, m_embedding]) # (N, 1, 1)
u_embedding 是通过10个隐藏特征来表示一个用户,
m_embedding 是通过10个隐藏特征来表示一个物品,
u_embedding和m_embedding的点乘,获得的一个值就代表的是用户和物品之间的匹配度。
compile
model.compile(
loss='mse',
optimizer = 'adam', #SGD(lr=0.01, momentum=0.9),
metrics=['mse'])
print(model.summary())
Training
r = model.fit(
x=[df_train.userId.values, df_train.movieId.values],
y=df_train.rating.values - mu,
epochs = epochs,
batch_size = 128,
validation_data=(
[df_test.userId.values, df_test.movieId.values],
df_test.rating.values - mu
)
)
Plotting
# plot losses
plt.plot(r.history['loss'], label="train loss")
plt.plot(r.history['val_loss'], label='test loss')
plt.legend()
plt.show()
# plot mse
plt.plot(r.history['mse'], label='train mse')
plt.plot(r.history['vmse'], label='test mse')
plt.legend()
plt.show()
还有一个疑问
这里为什么没有看到求导数的相关实现,我们在数学原理那一章,不是说了好多,如何求导的问题吗?其实是这样的如果你打算用原始的python来实现这个算法,确实是需要你自己求得导师的,但是在keras或者tensorflow等这些平台里边,计算导数和反向求导其实在fit函数里已经自动帮我们做了。我们只需要设计模型(就是前向传递),而不用考虑后想传递,那么我们在数学原理那一节,推理个半天是什么意思呢?如果不是用原始的python自己实现模型,只是推理这个模型是否可行就可以了。
总结
Matrix Factorization 推荐算法的关键是找到两个小维度的矩阵W和U,通过W和U之间的点乘,就能表示他们之间的关系,也就是表示出用户和商品之间的匹配度,从而完成产品的推荐。
但是目前这个算法比较运算比较久,所以没有贴出图片给大家看最后的结果。
网友评论