作者以及单位
HANRUI WU ; Jinan University;ACM Transactions on Information Systems
解决问题
设计了一个AADA机制,扩充冷启动的负样本从而提高预测性能。
研究动机
we propose a novel cold-start recommendation model called Adversarial Auto-encoder Domain Adaptation (AADA), which leverages negative samples to learning negative embedding to assist the learning of user and item embeddings. 冷启动提高性能的核心,是要提高样本量,但是冷启动样本量是定好了,方法的核心是把“负样本学习后,作为负嵌入”。
研究方法
Divide the hypergraph into two hypergraphs, i.e., a positive hypergraph and a negative one. andy:从这个图可以看出,找出了v1的负样本是e1hat。这里面有两个核心的东西:问题1超图hypergraph 是什么;问题2怎么把下面的b和c划分出来?
正负超图问题1:Hypergraph ,超图文章中的定义是: each hyperedge in the hypergraph can connect more than two nodes.(andy:其实就是一个标签在低于2个节点的时候,无论用什么算法,都可以分类准确,但是如果多于两个节点就不好分,既然不好分,那么就容易分错,容易分错,就有优化的空间)
问题2:Hypergraph Auto-encoder:以上划分的依据就靠这个超图自动编码器。Given a hypergraph, the hypergraph auto-encoder performs convolution operations on both nodes and hyperedges to learn their latent embeddings.
Speciically, the hypergraph auto-encoder consists of two encoders (i.e., node and hyperedge encoders) for learning their embeddings, respectively, and one decoder for reconstructing the hypergraph based on the latent node and hyperedge embeddings.
输入:U是过往行为矩阵,T是item的特征,R+和R-分别是正负超图;Uw是热启动的用户特征,具体算法见下,公式可以见原文(不复杂)
算法操作
创新点
1.设计了hypergraph auto-encoder,得到正嵌入和负嵌入的样本。
2.还设计了一个MLP,学习冷启动和热启动作为常规regular的样本,也就是有3个输入:正、常规、负样本。(andy:输入增加,准度可想而知是增加)
3.三者输入肯定权重不一样,所以还设计了一个a matching discriminator做了权重选择(文中表述是minimize the classification loss of the positive and negative embeddings and the distribution gap between the positive and regular embeddings)。
结论
文章写的非常工整很专业, 没有硬伤。
动机其实不难想到,冷启动核心最大程度是利用已有的数据,数据如何进一步拆分。
把数据分为正负样本,其实在Social collaborative filtering2012,2013年推荐中已经提出过了,当时的创新点是大家都在协同过滤中找最像相似度,找到最不像的相似度同样也可以提高性能。之前文章的做法是在矩阵分解里面,增加了负相似度的正则表达式,同样也设计了两者融合的机制,和这个文章提到的a matching discriminator贡献点,有异曲同工之处。
我看了文章引用的参考文献,特别是37和55应该是借鉴最大的,一个是2014年(协同过滤)2021年的文章(Contrastive Learning for Cold-start Recommendation),如果能够着重比较一下相关文献与本文提出的 Adversarial Auto-encoder Domain Adaptation (AADA)之间的异同,就更好了。
网友评论