原文连接:https://arxiv.org/abs/1801.10247
这篇文章起始没有看懂啊。但是网上对这篇文章的解析资源也比较少。如果有错的地方,求指正!
先总结这篇文章的几个亮点:
1.这是一篇归纳式(inductive learning)的图卷工作。
归纳式的图卷积和直推式(也叫转导式)(Transductive learning)图卷积不同之处在于:在节点分类任务上,归纳式学习中,测试节点可以不出现在用于训练的图结构中。而直推式学习,测试节点要出现在用于训练的图结构中。
inductive和Transductive的不同2.这篇文章采用了重要性采样。
之前的工作,找领域的时候都是类似于均匀的采样。这篇文章,在采样的过程中,分配了不同的权重(概率测度下)。由于在前传的过程中用到了重要性采样,然后在计算loss的时候,也将这个概率测度加入。即文章所说将以前的简单加和变成了积分形式(integral transforms)。文章后面证明了一大堆公式积分,其实我也没看懂。貌似文章最后还是采用了加权形式的累加。
所说的积分变化部分
我个人以为就是:说了将loss函数的加和形式 泛化 到积分的形式:
模型理解图模型部分的理解:
提出了两种模型:
第一种是无差别的均匀采样:
均匀采样第二种是重要性采样:
重要性采样
网友评论