1. Cross Temporal Recurrent Networks for Ranking Question Answer Pairs
- AAAI 2018
- 一个问题下的答案排序
- 用Cross Temporal RNN对问题和答案建模
-
问题通过3个不同的CNN分别得到3个额外的门控值给答案那边RNN cell,反过来也一样。
整体框架图 -
由于问题和答案长度可能不一样,所以按比例对齐:
问题和答案单词对齐公式
2. Question Condensing Networks for Answer Selection in Community Question Answering
- ACL 2018
- 预测答案的分类:Good, PotentiallyUseful, 还是Bad
- 以前的工作都是把问题中的题目和描述拼一起当一段文本考虑
-
本文把题目和描述分开考虑,计算出题目和描述里面每个单词Embedding的垂直分量(orth)和平行分量(para),然后用来计算Attention weight
整体框架图
3. Learning to Rank Question Answer Pairs with Holographic Dual LSTM Architecture
- SIGIR 2017]
- 一个问题下的答案排序
-
通过一个Holographic Dual LSTM来对问题和答案建模(匹配)
整体框架图
4. Knowledge-aware Attentive Neural Network for Ranking Question Answer Pairs
- SIGIR 2018
- 一个问题下的答案排序
-
因为直接做问题-答案匹配的话,有时候不好的答案跟问题的相似度更高,所以需要引入外部知识:knowledge graphs
整体框架图
5. Multihop Attention Networks for Question Answer Matching
- SIGIR 2018
- 一个问题下的答案排序,用了多跳的attention网络
-
看图就知道是怎么做的了:
两种multihop attention
6. Focusing Attention Network for Answer Ranking
- WWW 2019
- 一个问题下的答案排序
- 本文认为现有的attention方法不能做到准确地对齐question和answerer,所以表现不好
- 所以本文提出一种Focusing Attention Network,通过加入semantic和metadata features来自动提取Attention
- semantic feature包括相似度、语法树、LDA
-
metadata features就是文本长度
整体框架图
7. Sequential Scenario-Specific Meta Learner for Online Recommendation
- KDD 2019
- 阿里的文章,做推荐系统,依据user-item相关性做推荐
- 传统的方法需要大量的数据用来训练中的,但是在阿里的很多场景是可能只存在很短的时间就下线了,所以无法等到有了大量的数据再来训练
- 而一个场景的推荐系统不能由别的场景的数据来训练得到
- 所以本文提出一种meta learner的方法来学习不同场景下的推荐系统的参数
- 只是一个很简单的模型(多层ReLU)
- Meta learning:学习一个学习器
- 学习器包括两个部分:Update Controller和Stop Controller
- 学习过程:先用一个同样的值初始化每个场景下的,然后通过Update Controller一直更新,通过Stop Controller控制什么时候停止更新
- Update Controller和Stop Controller都是一个LSTM单元,输入包括、的Loss和的Loss对的导数
整体框架图
网友评论