• 论文解读(GCA)《Graph Contrastive Learning with Adaptive Augmentation》


    论文信息

    论文标题:Graph Contrastive Learning with Adaptive Augmentation
    论文作者:Yanqiao Zhu、Yichen Xu3、Feng Yu4、Qiang Liu、Shu Wu、Liang Wang
    论文来源:2021, WWW
    论文地址:download
    论文代码:download

    1 介绍

      出发角度:倾向于保持重要的结构和属性不变,同时干扰可能不重要的边连接和特征。

      自适应数据增强方面:

      • 拓扑结构:基于节点中心性度量,突出重要连接;
      • 语义信息:对不重要的节点属性添加噪声;

    2 方法

    2.1 框架及算法

      框架如下:

        

      算法流程:

       

      编码器:

        GCi(X,A)=σ(ˆD12ˆAˆD12XWi)(12)f(X,A)=GC2(GC1(X,A),A)(13)

      损失函数

        J=12NNi=1[(ui,vi)+(vi,ui)](2)

      其中:

        logeθ(ui,vi)/τeθ(ui,vi)/τpositive pair +kieθ(ui,vk)/τinter-view negative pairs +kieθ(ui,uk)/τintra-view negative pairs (1)

    2.2 Adaptive Graph Augmentation

    2.2.1 Topology-level augmentation

      利用 Eq.3 中的概率从原始边集合中采样一个边子集合

        P{(u,v)˜E}=1peuv(3)

      其中:

      • (u,v)E
      • peuv 是删除边 (u,v) 的概率;
      • ˜E 将作为生成视图的边集合;

      分析知: peuv 应该反映边 (u,v) 的重要性,目的是为了加大破坏不重要的边的可能,同时在增强视图中保持重要的边。

      节点中心性量化了节点的重要性,本文为边 (u,v) 定义边中心性 weuv,用于衡量边(u,v) 对两个相连节点的影响。给定节点中心性度量 φc():VR+,将边中心性定义为两个相邻节点中心性得分的均值,即 weuv=(φc(u)+φc(v))/2。在有向图上,只使用尾部节点的中心性,即 weuv=φc(v),因为边的重要性通常是它们指向的节点。

      接下来,根据每条边的中心性值来计算它的概率。由于采用度作为节点中心性这种度量方法在不同数量级上变化差别过大,所以本文首先设置 seuv=logweuv 以缓解具有高度密集连接的节点的影响。然后通过将边中心性的值转换为概率:

        peuv=min(semaxseuvsemaxμespe,pτ)(4)

      其中,pe 是一个控制去除边的总体概率的超参数,semaxμesseuv 的最大值和平均值。而 pτ<1 是一个临界概率(cut-off probability),对于边中心性高的边,采用 pτ 删除,用于降低重要边被删除的可能性,对于边中心性低的边,采用 semaxseuvsemaxμespe  删除,用于提高不重要的边被删除的可能性。

      这里提供三种 节点中心性度量 方法:

      1、点度中心性(Degree centrality):节点度本身可以是一个中心性度量。在有向网络上,使用内度,因为有向图中的一个节点的影响主要是由指向它的节点赋予的。  

      2、特征向量中心性(Eigenvector centrality):基本思想是一个节点的中心性是相邻节点中心性的函数。也就是说,与你连接的人越重要,你也就越重要。

      3、PageRank中心性(PageRank centrality):基于有向图

      对于 PageRank 中心性分数计算公式如下:

        σ=αAD1σ+1(5)

      其中,σRN 是每个节点的 PageRank中心性得分的向量,α 是一个阻尼因子,它可以防止图中的 sinks 从连接到它们的节点中吸收所有 ranks。这里设置α=0.85。对于无向图,我们对转换后的有向图执行PageRank,其中每条无向边都被转换为两条有向边。

      例子:

      

      从图中可以看出,三种方案存在细微差别,但都强调了连接两个教练(橙色节点)的边,而较少关注边缘节点。

    2.2.2 Node-attribute-level augmentation

      节点特征隐藏:

        ˜X=[x1˜m;x2˜m;;xN˜m]

      其中:˜miBern(1pfi),即用 1pfi 的概率取 1,用 pfi 的概率取 0

      这里 pfi 应该反映出节点特征的第 i 个维数的重要性。我们假设经常出现在有影响的节点中的特征维度应该是重要的,并定义特征维度的权重如下。

      对于稀疏的 one-hot 节点特征,即xui{0,1},对于任何节点 u 和特征维 i,我们计算维度 i 的权重为

        wfi=uVxuiφc(u)(7)

      其中,φc() 是一个用于量化节点重要性的节点中心性度量。第一项 xui{0,1} 表示节点 u 中维度 i 的出现,第二项 φi(u) 表示每次出现的节点重要性。

      对于稠密、连续的节点特征 xu,其中  xui  表示节点 u 在维度  i  处的节点特征的值,这里不能按上述稀疏情况下的计算方式。本文用绝对值  |xui|  来测量节点  u  的  i  维的特征值的大小:

        wfi=uV|xui|φc(u)(8)

      与 Topology-level augmentation 类似,我们对权值进行归一化,以获得表示特征重要性的概率。形式上:

        pfi=min(sfmaxsfismaxμfspf,pτ)(9)

      其中,sfi=logwfisfmax  和 μfs 分别为 sfi 的最大值和平均值, pf 是控制特征增强的总体幅度的超参数。 

    3 实验

    3.1 数据集

      

      【 Wiki-CSAmazon-ComputersAmazon-PhotoCoauthor-CSCoauthor-Physics  】

    3.2 实验结果

      基线实验:

         

      消融实验:

       

      灵敏度分析:

        

    4 总结

      开发了一种自适应数据增强对比学习框架。 


    __EOF__

  • 本文作者: Blair
  • 本文链接: https://www.cnblogs.com/BlairGrowing/p/16134361.html
  • 关于博主: 评论和私信会在第一时间回复。或者直接私信我。
  • 版权声明: 本博客所有文章除特别声明外,均采用 BY-NC-SA 许可协议。转载请注明出处!
  • 声援博主: 如果您觉得文章对您有帮助,可以点击文章右下角推荐一下。
  • 相关阅读:
    【从零开始学微服务】01.微服务的过去与现在
    使用 Flutter 创建自适应应用
    Linux安装kafka-manager
    五、计算机网络
    闲鱼垃圾评论检测2019CIKM《Spam Review Detection with Graph Convolutional Networks》
    Django——表单
    [李宏毅老师深度学习视频]深度学习全连接层+反向传播机制【手写笔记】
    MySQL----redo log重做日志原理及流程
    C语言编程陷阱(三)
    电脑连打印机不打印,是怎么回事?
  • 原文地址:https://www.cnblogs.com/BlairGrowing/p/16134361.html