• 论文解读(gCooL)《Graph Communal Contrastive Learning》


    论文信息

    论文标题:Graph Communal Contrastive Learning
    论文作者:Bolian Li, Baoyu Jing, Hanghang Tong
    论文来源:2022, WWW
    论文地址:download 
    论文代码:download

    1 Introduction

      出发点:GCL 中节点级对比损失会有一定概率将同一社区中的节点视为负对,这是不合理的。

      首先提出一种基于图结构信息学习社区划分的 Dense Community Aggregation(𝐷𝑒𝐶𝐴)算法。接下来,引入一种新的 Reweighted Self-supervised Cross-contrastive(𝑅𝑒𝑆𝐶)训练方案,将同一社区中的节点在表示空间中拉得更近。

      本文框架:多视图对比。

    2 Preliminaries

    2.1 Similarity Measurement

      Exponent cosine similarity:

        δc(x1,x2)=exp{xT1x2/τx1x2}(1)δc(x1,x2)=exp{xT1x2/τx1x2}(1)

      Gaussian RBF similarity:

        δe(x1,x2)=exp{x1x22/τ2}(2)δe(x1,x2)=exp{x1x22/τ2}(2)

    2.2 Community Detection

      Modularity. 社区划分中常用的模块度 [42]:

        m=12Mi,j[A[i,j]didj2M]r(i,j)(3)m=12Mi,j[A[i,j]didj2M]r(i,j)(3)

      其中,r(i,j)r(i,j) 代表着节点 i 和 节点 j  是否属于同一个社区,模块度测量了每条边对局部边缘密度(local edge density  (didj/2M))的影响。

      Edge count function.我们定义了邻接矩阵上的边计数函数(edge count function):

        E(C)=i,j1{AC[i,j]0}(4)

      其中 AC 是社区 C 的邻接矩阵。

      Edge density function.边密度函数将真实边计数与给定社区 Ck 中的最大可能边数进行比较:

        d(k)=E(Ck)|Ck|(|Ck|1)(5)

    2.3 Attributed Multiplex Graph

      Multiplex graphs 也被称为 multi-dimensional graphs [39]或 multi-view graphs[12,23,55],它由多个单视图组成,具有共享的节点和属性,但具有不同的图结构]。

      Formally, an attributed multiplex graph is  G={G1,G2,,GR}, where  RN+andeachGr=(V,Er)  is an attributed graph. If the number of views  R=1, G={G1}  is equivalent to the attributed graph  G1 . We show an example of attributed multiplex graph in Fig.  2 . 

        

    3 Method

    3.1 Dense Community Aggregation 

      节点级GCL方法容易出现将结构相近的节点作为负样本配对的问题。

      本文的方法受到图中的模块化[42]的启发,它测量了社区中的 local edge density 。然而,模块化很容易受到边[36]的变化的干扰,这限制了其在检测社区时的鲁棒性。

      因此,本文目标是增强模块化的鲁棒性,并通过最大化每个社区的边缘密度来进一步扩展模块化,同时最小化不同社区之间的边缘密度。DeCA 通过端到端训练进行,如 Fig. 3 所示。

        

      本文通过以端到端方式训练一个随机初始化的质心矩阵 Φ 来学习社区划分,其中每个 Φ[k,:] 代表第 k 个社区的中心。

      首先,将图中的每个节点以一定的概率分配给社区质心。具体地说,定义了一个社区分配矩阵 R,其中每个 R[i,:] 都是一个标准化的相似度向量,度量第 i 个节点和所有社区质心之间的距离。在形式上,R 是由

        R= normalize (δ(fθ(X,A),Φ))(6)

      其中,δ()2.1 节中定义的相似度函数。fθ() 是参数为 θ 的图编码器,normalize() 通过将每个社区的概率除以所有概率之和来归一化,并保持每个 ijR[i,j]=1

      其次,采用了两个目标来训练社区划分:

      社区内密度 (intra-community density)

        Dintra =1Ni,jk[A[i,j]d(k)]R[i,k]R[j,k](7)

      社区间密度(inter-community density )

        Dinter =1N(N1)i,jk1k2A[i,j]R[i,k1]R[j,k2](8)

      这两个目标测量了每条边对社区边密度(community edge density)的影响。具体来说,在 Eq.7Eq.8 中、A[i,j]d(k)A[i,j]0 表示真实局部密度 (A[i,j]) 和预期密度 d(k) 之间的差距。通过最小化联合目标,将更新质心矩阵 Φ,以达到合理的社区划分:

        lDeCA(R)=λwDinter Dintra (9)

      其中 λw 是系数。此外,为提高计算效率,在实际实现中稍微修改了 lDeCA 的形式。

      最后,结合了两个图视图的 lDeCA 目标,并同时对它们进行密集的社区聚合:

        LDeCA=12[lDeCA(R1)+lDeCA(R2)](10)

    3.2 Reweighted Self-supervised Cross-contrastive Training

      在本节中,提出 重加权自监督交叉对比(ReSC )训练方案

      首先应用图数据增强来生成两个图视图,然后同时应用 节点对比 和 社区对比 来考虑节点级和社区级的信息。我们引入 node-community 对作为额外的负样本,以解决与负样本在相同的社区中配对节点的问题。

    3.2.1 Graph augmentation

      属性掩藏

        ˜X=[X[1,:]m;X[2,:]m;;X[N,:]m](11)

      其中,m[i] Bernoulli (1pv) 代表着 Hadamard product 。

      边丢弃

      有概率地从原始边集 E 中随机删除边来生成增广边集 ˜E

        P{(v1,v2)˜E}=1pe,(v1,v2)E(12)

      上述两种数据增强,分别定义为 t1,t2T

      使用上述两种数据增强生成两个视图:

        (X1,A1)=t1(X,A)

        (X2,A2)=t2(X,A)

      最后后通过 GCN 编码器获得他们的表示:

        Z1=fθ(X1,A1)

        Z2=fθ(X2,A2)

    3.2.2 Node contrast

      在生成两个视图后,同时使用节点对比和社区对比来学习节点表示。

      本文引入了一个基于InfoNCE[43] 的对比损失来做节点级对比损失:

        INCE(Z1;Z2)=logiδ(Z1[i,:],Z2[i,:])jδ(Z1[i,:],Z2[j,:])(13)

      对这两个视图对称地应用节点对比损失:

        Lnode=12[INCE(Z1;Z2)+INCE(Z2;Z1)](14)

      它在两个视图中区分负对,并强制最大化正对[35]之间的一致性。

    3.2.3 Community contrast

      首先,用 Eq.10 训练随机初始化的社区质心矩阵 Φ,得到社区质心。

      其次,采用一个重新加权的交叉对比目标,将一个视图的节点表示与另一个视图的社区质心进行对比(一种交叉对比的方式)。在形式上,社区对比是由

        lcom (Z,Φ)=logiδ(Z[i,:],Φ[ki,:])δ(Z[i,:],Φ[ki,:])+kikw(i,k)δ(Z[i,:],Φ[k,:])(15)

      其中:

      • w(i,k)=exp{γZ[i,:]Φ[k,:]2} 是RBF的权值函数;

      在这一目标中,相同社区内的节点表示的相似性最大化,因为它们与相同的质心呈正对比,而在不同的社区中,节点表示被负对比分开。

      同样,对称地计算了生成的两个视图的对比目标:

        Lcom =12[lcom (Z1,Φ2)+lcom (Z2,Φ1)](16)

    3.2.4 Joint objective

      本文提出用 α-衰减系数将 Lnode, LDeCALcom  结合成一个联合目标:

        L=Lnode +α(t)LDeCA+[1α(t)]Lcom (17)

      其中,系数 α(t)=exp{t/η} 会随着训练的进行而顺利衰减( t 为 epoch)。

      实验观察到,通过 DeCA 训练,社区分区将稳定在几百个 epoch 内,而 gCooL 模型的训练通常需要数千个 epoch。为此,首先将  α-衰减主要应用于训练社区划分,并逐步将重点转移到学习节点表示上。

      综上所述,ReSC 的训练过程如 Algorithm 1 所示。

       

    3.3 Adaptation to Multiplex graphs

      将 gCooL 框架用于多重图,并对训练和推理过程进行了一些修改。

    3.3.1 Training

      在多重图中,不再需要通过图增强来生成图视图,因为多重图中的不同视图自然是多重查看的数据。我们建议在每对视图上检测社区(𝐷𝑒𝐶𝐴)和学习节点表示(𝑅𝑒𝑆𝐶)。改进后的训练过程如 Algorithm 2 所示。
      

    3.3.2 Inference

      在推理时,我们建议通过分类器融合(后集成方式)结合每个视图的分类结果:给定 R 独立分类器的结果,我们根据每个分类器的置信度(即输出softmax分布[17]的最大值)对最终预测进行标记。我们选择置信度最高的结果作为最终的预测。

    4 Experiments

    4.1 Experimental Setup

    4.1.1 datasets

      

    4.1.2 Evaluation protocol

      对于节点分类任务,我们用 Micro-F1 和 Macro-F1 分数来衡量性能。

      对于节点聚类任务,我们使用归一化互信息(NMI)评分来衡量性能:

        NMI=2I(ˆY;Y)/[H(ˆY)+H(Y)]

      其中,ˆYY 分别为预测的聚类索引和类标签。

      Adjusted Rand Index (ARI): 

        ARI=RIE[RI]/(max{RI}E[RI])

      其中, RI 是RandIndex[51],它测量两个集群索引和类标签之间的相似性。

    4.1.3 Baselines

    On single-view graphs
    • 1) traditional methods including node2vec [13] and DeepWalk [48],
    • 2) supervised methods including GCN [28]
    • 3) unsupervised methods including MVGRL [16], DGI [59], HDI [21], graph autoencoders (GAE and VGAE) [29] and GCA [78].
    On multiplex graphs
    • 1) methods with single-view representations including node2vec [13], DeepWalk [48], GCN [28] and DGI [59]
    • 2) methods with multi-view representations including CMNA [7], MNE [70], HAN [62], DMGI [44] and HDMI [21].

      此外,我们比较了不同的聚类基线,包括K-means、光谱双聚类(SBC)[30]和模块化[42],以显示我们提出的 𝐷𝑒𝐶𝐴(指数余弦相似度 DeCAc 和高斯RBF相似度  DeCAe) 的有效性。

    4.2 Quantitative Results 

    node classification on single-view graphs (Table 3)

      

    node clustering on single-view graphs (Table 4)

      

    node classification on multiplex graphs (Table 5)
      
    Performance on node clustering

      

    Ablation study

      

    4.3 Visual Evaluations

      我们通过可视化所分配社区的边缘密度和类熵来说明𝐷𝑒𝐶𝐴的重要性。我们评估每个检查点五次,并显示其平均值和偏差。我们将结果与传统的聚类方法(K-means和光谱双聚类[30])和前模块化[42]进行了比较。我们还可视化了消融研究的节点表示。

    4.3.1 Edge density

      边缘密度是基于 Eq.5、按所有社区的平均密度计算: 

        ED=1KKk=1d(k)(18)

      它被用来衡量𝐷𝑒𝐶𝐴如何学习社区分区,从而使群落内密度最大化( Section 3.1)。从Fig4可以看出,经过几百个 epochs 后,𝐷𝑒𝐶𝐴的性能稳定地优于其他聚类方法。

      

    4.3.2 Class entropy

      类熵是对一个社区中类标签的同质性(一个社区包含一个主要类或具有低熵的程度)的度量。我们认为,一个好的社区分区应该区分结构上分离的节点,换句话说,就是区分不同类的节点。类熵计算为所有社区中类标签的平均熵:

        CH=1KKk=1cPk(c)logPk(c)(19)

      其中,Pk(c) 为第 k 个社区中第 c 类的出现频率。从 Fig.5 可以看出,经过几百个 epochs 后,𝐷𝑒𝐶𝐴的性能稳定地优于其他聚类方法。

    4.3.3 Visualization of node representations

      为了解节点表示是如何分布的,使用 t-SNE[57] 来减少节点表示的维数以进行可视化。

      当应用 𝐿𝐷𝑒𝐶𝐴 和 𝐿com 时,每个类的节点表示分别分布更大,这说明了我们所提出的方法的有效性。结果如 Table 8 所示。

      

    6 Conclusion

      在本文中,我们提出了一种新的图社区对比学习(𝑔𝐶𝑜𝑜𝐿)框架,通过密集的社区聚合(𝐷𝑒𝐶𝐴)算法来学习结构相关社区的社区划分,并通过考虑社区结构的重加权自监督交叉对比(𝑅𝑒𝑆𝐶)训练方案来学习图的表示。所提出的𝑔𝐶𝑜𝑜𝐿在多个任务上始终达到了最先进的性能,并且可以自然地适应于多路图。我们表明,社区信息有利于图表示学习的整体性能。

    Appendix

      在 𝐷𝑒𝐶𝐴,由于边密度依赖于社区的选择,因此社区内密度目标的计算代价高昂且难以向量化。为了解决这个问题,我们推导了 𝐷𝑖𝑛𝑡𝑟𝑎 的一个下界:

        Dintra 1Ni,jk[A[i,j]maxκ{d(κ)}]R[i,k]R[j,k]=1Ni,jk˜A[i,j]R[i,k]R[j,k]=˜Dintra 

      其中,˜A=Amaxκd(κ)I 为扩展邻接矩阵,˜Dintra =infDintra  为下界。我们使用 ˜Dintra  来代替 Eq.9 中的 Dintra .

      接下来,我们利用社区密度矩阵 F=RAR˜F=R˜AR 对目标 Dinter ˜Dintra  进行向量化。F 的条目是 F[u,v]=iR[i,u](AR)[i,v]=i,jA[i,j]R[i,u]R[j,v],它自然符合 Eq.7Eq.8 的形式。因此,这两个目标可以被重新形式定义为

        ˜Dintra =1Ntr(˜F)(21)

        Dinter =1N(N1)[i,jF[i,j]tr(F)](22)

      最后,向量化的 𝐷𝑒𝐶𝐴 目标为:

        lDeCA(R)=λwDinter ˜Dintra=λwN(N1)[i,jF[i,j]tr(F)]1Ntr(˜F)(23)

     


    __EOF__

  • 本文作者: Blair
  • 本文链接: https://www.cnblogs.com/BlairGrowing/p/16341666.html
  • 关于博主: 评论和私信会在第一时间回复。或者直接私信我。
  • 版权声明: 本博客所有文章除特别声明外,均采用 BY-NC-SA 许可协议。转载请注明出处!
  • 声援博主: 如果您觉得文章对您有帮助,可以点击文章右下角推荐一下。
  • 相关阅读:
    PLC-Recorder高速采集西门子S7-300(400) PLC数据的方法(开放以太网协议)
    基于Web技术的优秀电影片段赏析与交流系统
    GIt 迭代需求经验
    大数据团队必备的最佳提效工具推荐
    Bean的装配
    每日一题 2596. 检查骑士巡视方案
    uniapp配置网络请求
    java毕业设计校园考勤系统mybatis+源码+调试部署+系统+数据库+lw
    git config 查看,设置,删除项
    深度学习简介及反向传播
  • 原文地址:https://www.cnblogs.com/BlairGrowing/p/16341666.html