美文网首页
2019-05-12

2019-05-12

作者: wwang945 | 来源:发表于2019-05-13 14:52 被阅读0次

    1. A Simple Convolutional Generative Network for Next Item Recommendation

    • WSDM 2019
    • Xiangnan He
    • session based 推荐,推荐下一个物品
    • 把一个session的物品看作一个二维的矩阵,用CNN建模
    • 可以同时得到长期和短期的物品相关

    2. Modeling Temporal Evidence from External Collections

    • WSDM 2019
    • 做搜索排序的
    • 估计与某个事件最相关的时间
    • 通过外部数据对Temporal Evidence建模,用来推断主题的时间相关性,然后选择the query expansion terms,再re-rank最后的排序结果

    3. Recurrent Recommendation with Local Coherence

    • WSDM 2019
    • user-item打分预测
    • 用户和item都在随时间变化,在短期序列里面,相邻的user或item很可能是很相关的(这点跟我们ijcai2018的文章想法类似)
    • 主要动机是认为user和item都有local coherence和long-term evolution两个性质
    • 对于local coherence,用word2vec方式预训练出每个item和每个user的Embedding。把序列看作一个句子的做
    • 用类似word2vec的方法,得到每一次rating事件的Embedding
    • 然后用RNN最对user序列和item序列建模,得到最后的预测结果
    • 数据集:Amazon(公开的),Goodreads(自己爬的)
    • 可以解决冷启动问题(对新new或者新item)

    4. A Dual Attention Network with Semantic Embedding for Few-shot Learning

    • AAAI 2019
    • Few-shot Learning:meta-learning的一种,用少量的数据做参考,帮助预测任务
    • 做的图像识别
    • 同时做两个任务:Meta Prediction和Semantic Prediction
    • meta prediction:两个Attention,一个对图片区域做Attention,一个对用来参考的多个图片表示做Attention
    • semantic prediction:直接用图片的Embedding,Average Pooling
    • 用了3个公开数据集:MiniImageNe,Omniglot,CIFAR100

    5. A Hierarchical Multi-task Approach for Learning Embeddings from Semantic Tasks

    • AAAI 2019
    • 分层多任务text Embedding
    • 一套word Embedding用多层的BiLSTM同时做多个任务的预测,模型结构很简单
    • 多任务有Named Entity Recognition、Entity Mention Detection、Coreference Resolution、Relation Extraction

    6. Attention-based Multi-Context Guiding for Few-Shot Semantic Segmentation

    • AAAI 2019
    • 图片分割
    • 因为带标签的数据太少,生成数据标签代价大,所以需要用尽可能少的数据得到答案,所以引入Few shot
    • Few shot就是一条训数据里面有几条带标签的“样本数据”和一个待预测的数据,通过利用样本数据,得到待预测数据的标签
    • 对图片的建模,通过对图片区域的Attention,具体用的 Residual Attention Module,大概就是在resnet网络里面得到self Attention的key,value和query
    • 对样本数据的建模,用的Conv-LSTM

    7. A Deep Cascade Model for Multi-Document Reading Comprehension

    • AAAI 2019
    • 阿里的文章,阿里小蜜的应用场景,人机对话的
    • 多文档阅读理解,问答
    • 两个级别的Attention:文档级别和句子级别
    • 通过question,对每个文档做Attention,然后对每个句子做Attention,最后提取答案
    • 有离线数据测试和在线测试

    8. Bias Reduction via End-to-End Shift Learning: Application to Citizen Science

    • AAAI 2019
    • 人们收集的数据往往带有bias,就是训练集和测试集的分布不一致,这样会导致在测试集上效果很差
    • Shift Learning,主要有两种方法:covariate shift和label shift,本文主要讨论前者
    • 通过对训练数据加上不同的权重,使得训练结果在测试集上表现好

    9. BLOCK: Bilinear Superdiagonal Fusion for Visual Question Answering and Visual Relationship Detection

    • AAAI 2019
    • Bilinear 融合两个向量表示,例如A \in R^nB \in R^m,通过一个tensor T \in R^{n \times m \times k} 把A和B融合为一个长度为k的向量
    • BLOCK fusion model,就是把tensor T分块,每一块中每个元素用3个向量相乘相加得到
    • 融合后的向量可以用来做多种任务

    10. Context-Aware Self-Attention Networks

    • AAAI 2019
    • Tencent AI Lab
    • 方法挺简单,但动机很强
    • 传统的self Attention,没有考虑到context信息
    • 在Attention的query和key中引入context信息,使得计算出来的Attention weight考虑到了context
    • context信息可以是句子的整体表示,或者周围的词,等等

    11. Contextualized Non-local Neural Networks for Sequence Learning

    • AAAI 2019
    • 一种基于Attention的graph Embedding方法做文本任务
    • 本文的序列就是句子
    • 把每个单词看作node,单词之间有edge,然后动态更新node的表示和edge的权重
    • 图的更新过程类似于Attention

    12. Deep Interest Evolution Network for Click-Through Rate Prediction

    • AAAI 2019
    • 阿里的文章,应该是KDD18(DIN)那篇的进一步工作
    • 考虑到用户历史序列与当前待预测的item的关系
    • 设计了两个层用来提取用户兴趣和考虑到用户兴趣的变化:interest extractor layer和interest evolving layer
    • 在interest extractor layer中,用GRU建模,然后引入了一个辅助loss,就是某时刻的h要与下一时刻的输入相似,类似于seq2seq的loss
    • interest evolving layer中利用了target item做Attention,具体做法是把Attention与GRU结合起来,Attention值控制了update gate

    13. Deep Short Text Classification with Knowledge Powered Attention

    • AAAI 2019
    • 引入了外部知识库的短文本分类
    • 短文本本身用BiLSTM和self Attention建模
    • 文本表示对外部知识库做Attention,得到外部知识的表示
    • 拼接文本表示和外部知识表示,再得到预测结果

    14. DeepDPM: Dynamic Population Mapping via Deep Neural Network

    • AAAI 2019
    • 动态高解析度的人群分布数据很有用,但是很难得到
    • 本文利用低解析度的数据来生成搞解析度的数据
    • 同时考虑到了空间和时间上的关系

    相关文章

      网友评论

          本文标题:2019-05-12

          本文链接:https://www.haomeiwen.com/subject/hkfkoqtx.html