1. How Does Knowledge of the AUC Constrain the Set of Possible Ground-truth Labelings?
- AAAI 2019
- 研究AUC能包含多少二分类的Ground-truth label信息
- 很多二分类竞赛中,使用AUC作为评价指标,那么根据提交的结果以及返回的AUC值,能推断出多少信息呢?
- 例如4个数据的二分类问题,提交的预测值,而返回结果是0.75的话,那么真实label一定是
- 一个简单的想法是,有n个测试数据的问题上,提交次结果并得到返回的AUC,就能得到全部n个真实的标签了(每次两次只有一个不同,看auc相对大小就知道哪个猜对了)
- 然后该文章主要大量分析了只得到一次AUC值,能推断出多少信息
2. Lattice CNNs for Matching Based Chinese Question Answering
- AAAI 2019
- 处理中文的文本匹配
-
因为中文的分词情况很复杂,如下图。所以本文使用word lattice的方式来做文本匹配任务中的文本建模
中文的分词情况 -
具体地说,就是先把文本建图,然后在图上做CNN得到文本的表示,如图:
文本建模过程 - 对文本建图,是把百度百科上面的词全拿下来做词典(为了使得图连通,词典还包括所有单个字和<unknown>),然后文本中所有在词典里面的串作为图的节点,相邻的词连边。
3. Large-Scale Heterogeneous Feature Embedding
- AAAI 2019
- 把各种各样的大规模的特征做Embedding
- Embedding也就是表示学习,把特征用低维的向量表示
- 以前的方法一般只对单一的特征做Embedding,然而真实世界中包含各种各样的特征,例如文本,图片,网络。
- 存在学习多种特征表示,但是都有太高的计算资源花费
- 本文提出了一FeatWalk框架,主要解决两个问题:
- 怎么有效的利用多样的特征学习出一个统一的表示
- 怎么应用到大规模场景下面而且保持有效
4. Mining Fashion Outfit Composition Using an End-to-End Deep Learning Approach on Set Data
- IEEE Trans. Multimedia 2017
- 自动搭配套餐,例如什么衣服配什么裤子,配什么鞋子
- 数据驱动的,收集了很多流行的搭配例子,然后学习出每个搭配方案的打分
- 主要挑战:需要处理复杂的视觉特征、打分受很多因素的影响,例如不同的人有不同的兴趣
- 方法:先得到每个item的特征向量表示,然后用RNN对套装里面的多个item建模,得到套装的打分
- item表示:用CNN处理视觉图片信息,用GloVe模型学出文本的表示,然后Mean pooling得到文本特征,类别做Embedding,然后把3个特征拼起来得到一个item的特征
5. Practice on Long Sequential User Behavior Modeling for Click-Through Rate Prediction
- KDD 2019
- 阿里的文章
- 考虑到超长用户行为序列的CTR预估
- 以前的方法,例如DIN,DIEN等等都不能处理太长的序列,一般用的50长度,150是极限了
- 然而用很简单的方法,序列长度为1000的时候,AUC能比只用100的时候提升0.6%,而他们的应用场景,提升0.3%就是显著的了
- 太长的序列会带来计算时延和存储空间两大问题
- 本文把预估系统分为两部分
- 一部分是User Interest Center(UIC),负责保持最后一次的用户兴趣表示,同时依据用户行为事件来更新
- 另一部分是memory network,包括读写
6. From Micro to Macro: Uncovering and Predicting Information Cascading Process with Behavioral Dynamics
- ICDM 2015
- Peng Cui团队的文章, 动态流行度预测
- 通过早期的情况,预测未来的趋势
- 第一篇这样做的工作
-
用一个公式拟合流行度的情况(WEibull):
拟合流行度的公式 - 其中和通过最大似然优化得到
- 另外还用到了精心手动提取的用户的特征,用户特征做线性回归同时也能拟合和
- 数据集用的腾讯微博的数据
7. Estimating Node Importance in Knowledge Graphs Using Graph Neural Networks
- KDD 2019
- 在知识图谱(KG)中估计节点的重要性
- 前人的工作一般都是在普通的图上面计算节点的重要性,例如PageRank,本文是第一个在KG上面做的
- 需要考虑的几个方面:邻居、边的类型(关系)、中心度(centrality)、输入的分数(用来训练的一部分节点的label),方法的灵活性
- 节点的分数:相邻节点的分数的加权和,权重由两个点和一个边算出
- 中心度:由入度初始化,然后迭代更新
- 最后的节点重要性由上面两个值结合得到
网友评论