图学习

作者: 臻甄 | 来源:发表于2020-09-16 19:01 被阅读0次

    什么是图学习

    • 图数据挖掘和CV、NLP一样,是一个领域
    • 什么是非图学习:研究对象是独立的特征(姓名、年龄、身高等)信息。
    • 什么是图学习:研究对象是存在于客观世界的主体,存在一定的图结构信息(QQ、微信好友,师生关系等都构成了图网络)
    • 图学习网络的核心:如何对图结构进行表示学习以表示图的结构信息。把图结构映射为向量

    为什么要图学习

    把一些图信息映射为Embedding向量。

    图学习的分类

    • 基于图结构的表示学习:对结点的向量表示只来源于图的拓扑结构(比如nxn的邻接矩阵表达的图结构),只是对图结构的单一表示,缺乏对图结点特征消息的表示。
    • 基于图特征的表示学习:既包含了图的拓扑信息,也包含了已有的特征向量,如姓名、年龄、身高等信息。

    总结:图表示学习的task就是用n个向量表示图上的n个结点,这样我们就可以将一个难以表达的拓扑结构转化为可以丢进炼丹炉的vector。

    基于图结构的表示学习

    表示的时候尽可能多地保留图的拓扑信息。我们希望Embedding出来的向量在图上“接近”时在向量空间也“接近”。对于第2个“接近”,就是欧式空间两个向量的距离。对于第一个“接近”,可以有很多的解释:

    • 1-hop:两个相邻的结点就可以定义为临近;
    • k-hop:两个k阶临近的结点也可以定义为临近;
      具有结构性:结构性相对于异质性而言。异质性关注的是结点的邻接关系;结构性将两个结构上相似的结点定义为“临近”。比方说,某两个点是各自小组的中心,这样的两个节点就具有结构性。

    常用模型

    • DeepWalk:通过Random walk随机采样把图信息变成序列信息+word2vec
    • Node2vec:等概率的游走操作似乎是比较naive的,对此,Node2vec的提出就是对结点间游走概率的定义,设置不同参数的时候可以让跳转形式偏向于BFS或者DFS
    • Metapath2vec,LINE and so on:针对异构图而言,其结点的属性不同,采样的方式也与传统的图网络不同,Meta-Path按照规则进行采样:类似于“电影-导演-主演”这样的方法进行采样。唐建等人提出的LINE:认为1-hop和2-hop临近的结点为“接近”的结点。

    基于图特征的表示学习

    在基于图特征的表示学习中,由于加入了结点的特征矩阵X(姓名、年龄、身高等这样的特征),需要同基于图结构的表示学习区别开来。这一类的模型通常被叫做“图神经网络”。

    • GCN(Graph Convolutional Networks)(图卷积网络)是非常基本第一个GNN模型。在讨论GCN之前,我们先来看一下CNN(卷积神经网络)是怎么做卷积运算的。如图6所示,CNN的两个主要特点是局部感知与权值共享。换句话说,就是聚合某个像素点周围的像素特征。类似地,在GCN中,新的特征也是对上一层邻居结点特征的聚合。核心的意思是“邻居结点的聚合”。
    • NIPS上GraphSAGE:主要的特点是固定的采样倍率和不同的聚合方式。聚合方式可以有:平均聚合、LSTM聚合

    Reference

    https://zhuanlan.zhihu.com/p/112295277

    相关文章

      网友评论

          本文标题:图学习

          本文链接:https://www.haomeiwen.com/subject/wirhyktx.html