• 论文解读(JKnet)《Representation Learning on Graphs with Jumping Knowledge Networks》


    论文信息

    论文标题:Representation Learning on Graphs with Jumping Knowledge Networks
    论文作者:Keyulu Xu, Chengtao Li, Yonglong Tian, Tomohiro Sonobe, Ken-ichi Kawarabayashi, Stefanie Jegelka
    论文来源:2018,ICML
    论文地址:download
    论文代码:download

    1 Introduction

      最近,图表示学习提出了基于 “邻域聚合” 一系列算法,这种算法严重依赖于图结构,本文提出了一种灵活应用不同邻域的架构 jumping knowledge (JK) networks

      此外,将 JK framework 与 GCN 、GraphSAGE 和GAT 等模型相结合,可以持续提高这些模型的性能。

    2 Model analysis

      除图属性信息很重要之外,子图结构对 “邻域聚合” 算法同样很重要。

      同样一个图中,如果起点不同,random walk 相同步数之后的影响范围也就不同,random walk 多少步对应的就是卷积的迭代次数。

        

      如上图所示,(a)、(b)、(c) 中 均以 square node 为起点。(a)中 square node 出现在中心稠密处 [core];(b)中出现在图边缘处【此时的 random walk 路径类似于树结构】;(c)  在 (b) 的基础上, random walk 的终点位于中心稠密处。

      一般的 “邻域聚合” 的消息传递均采用平均聚合的方式,显然在中心稠密处容易产生信息丢失,即平均聚合了众多节点的特征,无法聚合真正有效的特征。

        h(l+1)N(i)=aggregate({hlj,jN(i)})h(l+1)i=σ(Wconcat(hli,hl+1N(i)))h(l+1)N(i)=aggregate({hlj,jN(i)})h(l+1)i=σ(Wconcat(hli,hl+1N(i)))

      →​ 是否可以自适应地调整(即学习)每个节点的受影响半径?【可能 要减少 所谓 “邻域” 的大小】

      →​为实现这一点,本文探索了一种学习有选择地利用来自不同 “邻域” 的信息的架构,将表示“跳转”到最后一层。

    3 Related work

    3.1 neighborhood aggregation scheme

      典型的邻域聚合方案如下:

        h(l)v=σ(WlAGGREGATE({h(l1)u,u˜N(v)}))(1)h(l)v=σ(WlAGGREGATE({h(l1)u,uN~(v)}))(1)

    3.2 Graph Convolutional Networks (GCN)

    Recall 

      two-layer GCN :

        Z=f(X,A)=softmax(ˆAReLU(ˆAXW(0))W(1))Z=f(X,A)=softmax(A^ReLU(A^XW(0))W(1))

      其中,ˆA=˜D12˜A˜D12A^=D~12A~D~12

      Kipf 提出的 GCN:

        h(l+1)i=σ(j˜N(i)1cjih(l)jW(l))(2)h(l+1)i=σjN~(i)1cjih(l)jW(l)(2)

      其中,cji=|N(j)||N(i)|cji=|N(j)||N(i)| 

      Hamilton 对 GCN 的变体:

        h(l)v=ReLU(Wl1~deg(v)u˜N(v)h(l1)u)h(l)v=ReLUWl1deg(v)˜uN˜(v)h(l1)u

      显然就是,ˆA=˜D1˜A(3)A^=D~1A~(3) 

      GCN 的 inductive 变形:

        hkvσ(WMEAN({hk1v}{hk1u,uN(v)}))hkvσ(WMEAN({hk1v}{hk1u,uN(v)}))

    3.3 Neighborhood Aggregation with Skip Connections

      一些最近的方法首先聚合邻居,然后将得到的邻域表示与上次迭代中的节点表示相结合。更正式地说,每个节点都被更新为

        h(l)N(v)=σ(WlAGGREGATEN({h(l1)u,uN(v)}))h(l)v=COMBINE(h(l1)v,h(l)N(v))(4) 

      COMBINE 步骤是这个范式的关键,可以被视为不同层之间的“skip connection”的一种形式。

      GraphSAGE 的 Mean aggregator 形式:

        hkvσ(WMEAN({hk1v}{hk1u,uN(v)})hkvσ(WkCONCAT(hk1v,hkN(v)))

    3.4 Neighborhood Aggregation with Directional Biases

      对不同的邻居节点附加不同的权重,可以认为是一种带 directional biase 的策略。

      GAT、VAIN、 GraphSAGE 中的 max-pooling operation 修改了扩张的方向,而本文的模型则作用于扩张的局部性。

      在第6节中,我们演示了我们的框架不仅适用于简单的邻域聚合模型(GCN),而且还适用于跳过连接(GraphSAGE)和 带 directional biase 的 GAT 。

    4 Influence Distribution and Random Walks

      受 sensitivity analysis 和 influence functions 的启发,我们研究了其特征影响给定节点表示的节点的范围,这个范围可以给出节点从中获取信息的邻域有多大。

      本文测量节点 x 对节点 y 的敏感性,或者 yx 的影响,通过测量 y 的输入特征的变化对最后一层 x 的表示的影响程度。对于任何节点 x,influence distribution 捕获了所有其他节点的相对影响。

      Definition 3.1 (Influence score and distribution). For a simple graph G=(V,E) , let h(0)x be the input feature and h(k)x be the learned hidden feature of node xV at the kth (last) layer of the model. The influence score I(x,y) of node x by any node yV is the sum of the absolute values of the entries of the Jacobian matrix [h(k)xh(0)y] . We define the influence distribution Ix of xV by normalizing the influence scores: Ix(y)=I(x,y)/zI(x,z) , or

        Ix(y)=eT[h(k)xh(0)y]e/(zVeT[h(k)xh(0)z]e)

      where e is the all-ones vector.

      对于 completeness ,我们还定义了 random walk distributions :

      Definition 3.2. Consider a random walk on  ˜G  starting at a node  v0 ; if at the  tth step we are at a node  vt , we move to any neighbor of  vt  (including  vt  ) with equal probability.The t-step random walk distribution Pt of v0 is

        Pt(i)=Prob(vt=i)

      随机游动分布的一个重要性质是,当 t 的增加时,它变得更加扩散,如果图是非二部的,它收敛于极限分布。收敛速度取决于子图的结构,并且可以受随机游动跃迁矩阵的谱间隙的限制。

    4.1 Model Analysis

      以下结果表明,公共聚合方案的影响分布与随机游动分布密切相关。这一观察结果暗示了我们将讨论的具体含义——优势和缺点。

      与 ReLU 激活的随机化假设类似,我们可以绘制GCNs和随机游动之间的联系:

      Theorem 1. Given a  k-layer  G C N  with averaging as in Equation (3), assume that all paths in the computation graph of the model are activated with the same probability of success  ρ . Then the influence distribution  Ix  for any node  xV  is equivalent, in expectation, to the  k-step random walk distribution on  ˜G  starting at node  x .

      证明如下:

      

      通过修改 Theorem 1 的证明,可以直接证明 Eq.2 中 GCN 版本的一个几乎等价的结果。

      唯一的区别是每条从节点 x(v0p)y(vkp) 随机行走的路径 v0p,v1p,,vkp 概率不是 ρkl=11¯deg(vlp) ,而是 ρQk1l=11~deg(vlp)(~deg(x)~deg(y))1/2,其中 Q 是归一化因数。因此,概率上的差异很小,特别是当 xy 的度很接近时。

      同样地,我们可以证明具有方向性偏差的邻域聚集方案类似于有偏的随机游动分布。然后将相应的概率代入定理1的证明中。

      根据经验,我们观察到,尽管有些简化的假设,我们的理论是接近于在实践中发生的事情。我们将训练过的gcn的一个节点(标记为平方)的影响分布的热图可视化,并与从同一节点开始的随机游动分布进行比较。Figure 2 显示了示例结果。

      

      较深的颜色对应着较高的影响概率。为了显示跳过连接的效果,Figure 3 可视化了一个类似的热图——具有 residual connections 的 GCN。事实上,我们观察到,具有残差连接的网络的影响分布近似对应于惰性随机游动:每一步都有更高的概率停留在当前节点上。在每次迭代中,所有节点都以相似的概率保留局部信息;这不能适应特定上层节点的不同需求。

      

    Fast Collapse on Expanders

      从图中心开始的随机游走能在 O(log|V|) 步骤中迅速收敛到一个几乎均匀的分布。在邻域聚合的 O(log|V|) 迭代之后,通过 Theorem 1,每个节点的表示几乎受到图内部中任何其他节点的影响。因此,节点表示将代表全局图,并携带关于单个节点的有限信息。

      相比之下,从 bounded tree-width 部分开始的随机游动收敛缓慢,即这些特征保留了更多的局部信息。施加固定随机游动分布的模型继承了这些扩展速度上的差异,并影响了邻域,这可能不会导致对所有节点的最佳表示

    5 Jumping Knowledge Networks

      大半径可能导致过多的平均,而小半径可能导致不稳定或信息聚集不足。因此,我们提出了两个简单而强大的架构变化——jump connection 和 subsequent selective 但自适应的聚合机制。

      Figure 4 说明了主要的思想:在常见的邻域聚合网络中,每一层都通过聚集前一层的邻域来增加影响分布的大小。在最后一层,对于每个节点,我们仔细地从所有这些迭代表示(它们“跳转”到最后一层)中选择,潜在地结合一些。如果这是对每个节点独立完成的,那么该模型就可以根据需要调整每个节点的有效邻域大小,从而完全得到所需的自适应能力。

      

      我们的模型允许一般的图层聚合机制。我们探索了三种方法;其他的也是可能的。设 h(1)v,,h(k)v 是要聚合的节点 v (来自 k 个层)的跳跃表示。

    Concatenation

      直接拼接 h(1)v,,h(k)v是组合各层的最直接的方法,之后可以进行线性变换。如果转换权值在图节点之间共享,那么这种方法就不是节点自适应的。相反,它优化权重,以最适合数据集的方式组合子图特征。人们可能会认为连接适合于小图和具有规则结构、自适应性较少的图;也因为权重共享有助于减少过拟合。

    Max-pooling

      max(h(1)v,,h(k)v) 选择最具信息的特征。例如,表示更多局部属性的特征坐标可以使用从近邻学习到的特征坐标,而那些表示全局状态的特征坐标将有利于来自更高层的特征。最大池化是自适应的,其优点是不引入任何额外的参数来学习。

    LSTM-attention

      注意机制通过计算每一层 l(ls(l)v=1) 的注意分数 s(l)v 来识别每个节点 v 最有用的邻域范围,这代表了节点 v 在第 l 层学习到的特征的重要性。节点 v 的聚合表示是层特征 ls(l)vh(l)v 的加权平均值。对于 LSTM 的注意力,我们输入 h(1)v,,h(k)v 到 bi-directional LSTM ,并为每一层 l 生成 forward-LSTM 和 backward-LSTM 隐藏特征 f(l)vb(l)v。连接特征的线性映射 [f(l)vb(l)v] 产生标量重要性分数 s(l)v。对 {s(l)v}kl=1 应用 Softmax 层使节点 v 在不同范围内对其邻域的关注。使节点 v 在不同范围内对其邻域的关注。最后,我们取 [f(l)vb(l)v] 的和,用 SoftMax({s(l)v}kl=1) 加权,得到最终的层表示。另一种可能的实现是将 LSTM 与 max-pooling 结合起来。LSTM-attention 是节点自适应的,因为每个节点的注意分数是不同的。我们将看到,这种方法在大型复杂图上闪耀,尽管由于它相对较高的复杂性,它可能在小图(较少的训练节点)上过拟合。

    6 Experiments

    数据集

      

     

    节点分类

      

     

      

     

      

     

    7 Conclusion

      由于观察到图节点嵌入的邻域信息范围存在巨大差异,我们提出了一种新的节点表示学习聚合方案,该方案可以将邻域信息范围单独适应于节点。这种jk网络可以改进表示,特别是对于具有不同局部结构的子图的图,因此可能不能被固定数量的邻域聚合很好地捕获。未来工作的有趣方向包括探索其他层聚合器,以及研究各种层级和节点级聚合器的组合对不同类型的图结构的影响。

     


    __EOF__

  • 本文作者: Blair
  • 本文链接: https://www.cnblogs.com/BlairGrowing/p/16544425.html
  • 关于博主: 评论和私信会在第一时间回复。或者直接私信我。
  • 版权声明: 本博客所有文章除特别声明外,均采用 BY-NC-SA 许可协议。转载请注明出处!
  • 声援博主: 如果您觉得文章对您有帮助,可以点击文章右下角推荐一下。
  • 相关阅读:
    常用框架分析(7)-Flutter
    金仓数据库 KingbaseES 插件参考手册 R
    CEC2015:动态多目标野狗优化算法求解CEC2015(提供完整MATLAB代码,含GD、IGD、HV和SP评价指标)
    Material Design的基本使用方法、Tollbar、菜单等
    Linux bash: ipconfig: command not found解决方法
    解读surging 的内存过高的原因
    “我们为什么要做 iVX ? ” ——访 iVX CEO 孟智平 了解 iVX 企业文化
    (数字图像处理MATLAB+Python)第十章图像分割-第四,五节:分水岭分割和综合案例
    python try-except捕获异常的方法
    12.0、C语言——实用调试技巧
  • 原文地址:https://www.cnblogs.com/BlairGrowing/p/16544425.html