美文网首页
浅析:FASTGCN: fast learning with g

浅析:FASTGCN: fast learning with g

作者: 芸思 | 来源:发表于2019-04-25 22:01 被阅读0次

    原文连接:https://arxiv.org/abs/1801.10247

    这篇文章起始没有看懂啊。但是网上对这篇文章的解析资源也比较少。如果有错的地方,求指正!

    先总结这篇文章的几个亮点:

        1.这是一篇归纳式(inductive learning)的图卷工作。

        归纳式的图卷积和直推式(也叫转导式)(Transductive learning)图卷积不同之处在于:在节点分类任务上,归纳式学习中,测试节点可以不出现在用于训练的图结构中。而直推式学习,测试节点要出现在用于训练的图结构中。

    inductive和Transductive的不同

    2.这篇文章采用了重要性采样。

    之前的工作,找领域的时候都是类似于均匀的采样。这篇文章,在采样的过程中,分配了不同的权重(概率测度下)。由于在前传的过程中用到了重要性采样,然后在计算loss的时候,也将这个概率测度加入。即文章所说将以前的简单加和变成了积分形式(integral transforms)。文章后面证明了一大堆公式积分,其实我也没看懂。貌似文章最后还是采用了加权形式的累加。

    所说的积分变化部分

    我个人以为就是:说了将loss函数的加和形式 泛化 到积分的形式:

    模型理解图

    模型部分的理解:

    提出了两种模型:

    第一种是无差别的均匀采样:

    均匀采样

    第二种是重要性采样:

    重要性采样

    相关文章

      网友评论

          本文标题:浅析:FASTGCN: fast learning with g

          本文链接:https://www.haomeiwen.com/subject/nsqzgqtx.html