• 论文解读(Graph-MLP)《Graph-MLP: Node Classification without Message Passing in Graph》


    论文信息

    论文标题:Graph-MLP: Node Classification without Message Passing in Graph
    论文作者:Yang Hu, Haoxuan You, Zhecan Wang, Zhicheng Wang,Erjin Zhou, Yue Gao
    论文来源:2021, ArXiv
    论文地址:download 
    论文代码:download

    1 介绍

      本文工作:

        不使用基于消息传递模块的GNNs,取而代之的是使用Graph-MLP:一个仅在计算损失时考虑结构信息的MLP。

      任务:节点分类。在这个任务中,将由标记和未标记节点组成的图输入到一个模型中,输出是未标记节点的预测。

    2 方法

    2.1 GNN 框架

      普通的 GNN 框架:

        X(l+1)=σ(ˆAX(l)W(l))(1)X(l+1)=σ(AˆX(l)W(l))(1)  

        ˆA=D12(A+I)D12(2)Aˆ=D12(A+I)D12(2)

    2.2 Graph-MLP

      整体框架如下:

      

    2.2.1 MLP-based Structure

      结构: linear-activation-layer normalization-dropout-linear-linear

      即:

        X(1)= Dropout (LN(σ(XW0)))(3)Z=X(1)W1(4)Y=ZW2(5)

      其中:Z 用于 NConterast 损失,Y 用于分类损失。

    2.2.2 Neighbouring Contrastive Loss

      在 NContast 损失中,认为每个节点的 r-hop 邻居为正样本,其他节点为负样本。这种损失鼓励正样本更接近目标节点,并根据特征距离推动负样本远离目标节点。采样 B 个邻居,第 i 个节点的 NContrast loss 可以表述为:

        i=logBj=11[ji]γijexp(sim(zi,zj)/τ)Bk=11[ki]exp(sim(zi,zk)/τ)(6)

      其中:γij 表示节点 i 和节点 j 之间的连接强度,这里定义为 γij=ˆArij

      γij 为非 0 值当且仅当结点 j 是结点 ir  跳邻居,即: 

        γij{=0, node j is the r-hop neighbor of node i0, node j is not the r-hop neighbor of node i

      总 NContrast loss 为 lossNC,而分类损失采用的是传统的交叉熵(用 lossCE 表示 ),因此上述 Graph-MLP 的总损失函数如下:

        lossNC=α1BBi=1i(7) loss final =lossCE+lossNC(8)

    2.2.3 Training

      整个模型以端到端的方式进行训练。【端到端的学习范式:整个学习的流程并不进行人为的子问题划分,而是完全交给深度学习模型直接学习从原始数据到期望输出的映射 】

      Graph-MLP 模型不需要使用邻接矩阵,在计算训练期间的损失时只参考图结构信息。

      在每个 batch 中,我们随机抽取 B 个节点并取相应的邻接信息 ˆARB×B 和节点特征 XRR×d。对于某些节点 i,由于 batch 抽样的随机性,可能会发生 batch 中没有 positive samples。在这种情况下,将删除节点 i 的损失。本文模型对 positive samples 和  negative samples 的比例是稳健的,而没有特别调整的比例。

      算法如  Algorithm 1 所示:

      

    2.2.4 Inference

      在推断过程中,传统的图模型如 GNN 同时需要邻接矩阵和节点特征作为输入。不同的是,我们基于MLP的方法只需要节点特征作为输入。因此,当邻接信息被损坏或丢失时,Graph-MLP仍然可以提供一致可靠的结果。在传统的图建模中,图信息被嵌入到输入的邻接矩阵中。对于这些模型,图节点转换的学习严重依赖于内部消息传递,而内部消息传递对每个邻接矩阵输入中的连接都很敏感。然而,我们对图形结构的监督是应用于损失水平的。因此,我们的框架能够在节点特征转换过程中学习一个图结构的分布,而不需要进行前馈消息传递。这使得我们的模型在推理过程中对特定连接的敏感性较低。

    3 实验

    3.1 数据集

      

    3.2 对引文网络节点分类数据集的性能

      

    3.3 Graph-MLP 与 GNN 的效率

      

    3.4 关于超参数的消融术研究

      

    3.5 嵌入的可视化 

      

    3.6 鲁棒性

      为了证明Graph-MLP在缺失连接下进行推断仍具有良好的鲁棒性,作者在测试过程中的邻接矩阵中添加了噪声,缺失连接的邻接矩阵的计算公式如下:

        Acorr =Amask+(1mask)N(9)

        mask{=1,p=1δ=0,p=δ(10)

      其中  δ  表示缺失率,maskn×n  决定邻接矩阵中缺失的位置,mask 中的元素取  1/0  的概率为  1δ/δNn×n  中的元素取  1/0  的 概率都为  0.5  。

      

      结论:从上图可以看出随着缺失率的增加,GCN的推断性能急剧下降,而Graph-MLP却基本不受影响。

     


    __EOF__

  • 本文作者: Blair
  • 本文链接: https://www.cnblogs.com/BlairGrowing/p/16093227.html
  • 关于博主: 评论和私信会在第一时间回复。或者直接私信我。
  • 版权声明: 本博客所有文章除特别声明外,均采用 BY-NC-SA 许可协议。转载请注明出处!
  • 声援博主: 如果您觉得文章对您有帮助,可以点击文章右下角推荐一下。
  • 相关阅读:
    Lua顺序执行循环
    golang数据结构与算法——十大排序算法
    纯CSS打造酷炫霓虹灯loading bar特效
    中能融合携手天翼云打造“能源大脑”
    Shopee印尼站停止销售跨境商品:电商新规是否将改变印尼电商格局?
    大模型算法岗 100 道面试题(含答案)
    (七)vulhub专栏:Log4j远程代码执行漏洞复现
    洛谷P2680 树上路径,差分,二分答案
    Comparator之用最少数量的箭引爆气球
    Zookeeper
  • 原文地址:https://www.cnblogs.com/BlairGrowing/p/16093227.html