1. A Simple Convolutional Generative Network for Next Item Recommendation
- WSDM 2019
- Xiangnan He
- session based 推荐,推荐下一个物品
- 把一个session的物品看作一个二维的矩阵,用CNN建模
- 可以同时得到长期和短期的物品相关
2. Modeling Temporal Evidence from External Collections
- WSDM 2019
- 做搜索排序的
- 估计与某个事件最相关的时间
- 通过外部数据对Temporal Evidence建模,用来推断主题的时间相关性,然后选择the query expansion terms,再re-rank最后的排序结果
3. Recurrent Recommendation with Local Coherence
- WSDM 2019
- user-item打分预测
- 用户和item都在随时间变化,在短期序列里面,相邻的user或item很可能是很相关的(这点跟我们ijcai2018的文章想法类似)
- 主要动机是认为user和item都有local coherence和long-term evolution两个性质
- 对于local coherence,用word2vec方式预训练出每个item和每个user的Embedding。把序列看作一个句子的做
- 用类似word2vec的方法,得到每一次rating事件的Embedding
- 然后用RNN最对user序列和item序列建模,得到最后的预测结果
- 数据集:Amazon(公开的),Goodreads(自己爬的)
- 可以解决冷启动问题(对新new或者新item)
4. A Dual Attention Network with Semantic Embedding for Few-shot Learning
- AAAI 2019
- Few-shot Learning:meta-learning的一种,用少量的数据做参考,帮助预测任务
- 做的图像识别
- 同时做两个任务:Meta Prediction和Semantic Prediction
- meta prediction:两个Attention,一个对图片区域做Attention,一个对用来参考的多个图片表示做Attention
- semantic prediction:直接用图片的Embedding,Average Pooling
- 用了3个公开数据集:MiniImageNe,Omniglot,CIFAR100
5. A Hierarchical Multi-task Approach for Learning Embeddings from Semantic Tasks
- AAAI 2019
- 分层多任务text Embedding
- 一套word Embedding用多层的BiLSTM同时做多个任务的预测,模型结构很简单
- 多任务有Named Entity Recognition、Entity Mention Detection、Coreference Resolution、Relation Extraction
6. Attention-based Multi-Context Guiding for Few-Shot Semantic Segmentation
- AAAI 2019
- 图片分割
- 因为带标签的数据太少,生成数据标签代价大,所以需要用尽可能少的数据得到答案,所以引入Few shot
- Few shot就是一条训数据里面有几条带标签的“样本数据”和一个待预测的数据,通过利用样本数据,得到待预测数据的标签
- 对图片的建模,通过对图片区域的Attention,具体用的 Residual Attention Module,大概就是在resnet网络里面得到self Attention的key,value和query
- 对样本数据的建模,用的Conv-LSTM
7. A Deep Cascade Model for Multi-Document Reading Comprehension
- AAAI 2019
- 阿里的文章,阿里小蜜的应用场景,人机对话的
- 多文档阅读理解,问答
- 两个级别的Attention:文档级别和句子级别
- 通过question,对每个文档做Attention,然后对每个句子做Attention,最后提取答案
- 有离线数据测试和在线测试
8. Bias Reduction via End-to-End Shift Learning: Application to Citizen Science
- AAAI 2019
- 人们收集的数据往往带有bias,就是训练集和测试集的分布不一致,这样会导致在测试集上效果很差
- Shift Learning,主要有两种方法:covariate shift和label shift,本文主要讨论前者
- 通过对训练数据加上不同的权重,使得训练结果在测试集上表现好
9. BLOCK: Bilinear Superdiagonal Fusion for Visual Question Answering and Visual Relationship Detection
- AAAI 2019
- Bilinear 融合两个向量表示,例如,,通过一个tensor 把A和B融合为一个长度为k的向量
- BLOCK fusion model,就是把tensor T分块,每一块中每个元素用3个向量相乘相加得到
- 融合后的向量可以用来做多种任务
10. Context-Aware Self-Attention Networks
- AAAI 2019
- Tencent AI Lab
- 方法挺简单,但动机很强
- 传统的self Attention,没有考虑到context信息
- 在Attention的query和key中引入context信息,使得计算出来的Attention weight考虑到了context
- context信息可以是句子的整体表示,或者周围的词,等等
11. Contextualized Non-local Neural Networks for Sequence Learning
- AAAI 2019
- 一种基于Attention的graph Embedding方法做文本任务
- 本文的序列就是句子
- 把每个单词看作node,单词之间有edge,然后动态更新node的表示和edge的权重
- 图的更新过程类似于Attention
12. Deep Interest Evolution Network for Click-Through Rate Prediction
- AAAI 2019
- 阿里的文章,应该是KDD18(DIN)那篇的进一步工作
- 考虑到用户历史序列与当前待预测的item的关系
- 设计了两个层用来提取用户兴趣和考虑到用户兴趣的变化:interest extractor layer和interest evolving layer
- 在interest extractor layer中,用GRU建模,然后引入了一个辅助loss,就是某时刻的h要与下一时刻的输入相似,类似于seq2seq的loss
- interest evolving layer中利用了target item做Attention,具体做法是把Attention与GRU结合起来,Attention值控制了update gate
13. Deep Short Text Classification with Knowledge Powered Attention
- AAAI 2019
- 引入了外部知识库的短文本分类
- 短文本本身用BiLSTM和self Attention建模
- 文本表示对外部知识库做Attention,得到外部知识的表示
- 拼接文本表示和外部知识表示,再得到预测结果
14. DeepDPM: Dynamic Population Mapping via Deep Neural Network
- AAAI 2019
- 动态高解析度的人群分布数据很有用,但是很难得到
- 本文利用低解析度的数据来生成搞解析度的数据
- 同时考虑到了空间和时间上的关系
网友评论