• 论文解读(IGSD)《Iterative Graph Self-Distillation》


    论文信息

    论文标题:Iterative Graph Self-Distillation
    论文作者:Hanlin Zhang, Shuai Lin, Weiyang Liu, Pan Zhou, Jian Tang, Xiaodan Liang, Eric P. Xing
    论文来源:2021, ICLR
    论文地址:download 
    论文代码:download

    1 Introduction

      创新点:图级对比。

    2 Method

      整体框架如下:

      

    2.1 Iterative Graph Self-Distillation Framework

      在 IGSD 中,引入了一个结构相似的两个网络,由 encoder fθ、projector  gθ  和 predictor  hθ 组成。我们将教师网络和学生网络的组成部分分别表示为 fθgθ  和 fθgθhθ

      IGSD 过程描述如下:

      • 首先对原始输入图 Gj 进行扩充,以获得增广视图 Gj。然后将 Gj 和不同的图实例 Gi 分别输入到两个编码器 fθfθ 中,用于提取图表示 h,h=fθ(Gi),fθ(Gj)
      • 其次,投影头 gθgθ 通过 z=gθ(h)=W(2)σ(W(1)h)z=gθ(h)=W(2)σ(W(1)h)  转换图表示 h,h 到投影 zz,其中 σ 表示ReLU非线性;
      • 最后,为防止崩溃为一个平凡的解,在学生网络中使用预测头来获得投影 z 的预测 hθ(z)=Wh(2)σ(Wh(1)z)

      通过对称传递两个图实列 GiGj,可以得到总体一致性损失:

        Lcon (Gi,Gj)=hθ(zi)zj22+hθ(zi)zj22(2)

      在一致性损失的情况下,teacher network 提供了一个回归目标来训练 student network,在通过梯度下降更新 student network 的权值后,将其参数 θ 更新为学生参数 θ  的指数移动平均值(EMA):

        θtτθt1+(1τ)θt(3)

    2.2 Self-supervised Learning with IGSD

      给定一组无标记图 G={Gi}i=1N,我们的目标是学习每个图 GiG 的低维表示,有利于下游任务,如图分类。

      在 IGSD 中,为了对比锚定 Gi 与其他图实例Gj(即负样本),使用以下自监督的 InfoNCE 目标:

        Lself-sup =EGiG[logexp(Li,icon)exp(Li,icon)+j=1N1Iijexp(Li,jcon)]

      其中,Li,jcon =Lcon (Gi,Gj)

      我们通过用混合函数 Mixλ(a,b)=λa+(1λ)b:融合潜在表示 h=fθ(G)h=fθ(G),得到图表示 h~

        h~=Mixλ(h,h)

    2.3 Semi-supervised Learning with IGSD

      考虑一个整个数据集 G=GLGU 由标记数据 GL={(Gi,yi)}i=1l 和未标记数据 GU={Gi}i=l+1l+u(通常 ul ),我们的目标是学习一个模型,可以对不可见图的图标签进行预测。生成 K 个增强视图,我们得到了 GL={(Gk,yk)}k=1KlGU={Gk}k=l+1K(l+u) 作为我们的训练数据。

      为了弥合自监督的预训练和下游任务之间的差距,我们将我们的模型扩展到半监督设置。在这种情况下,可以直接插入自监督损失作为表示学习的正则化器。然而,局限于标准监督学习的实例性监督可能会导致有偏的负抽样问题。为解决这一问题,我们可以使用少量的标记数据来进一步推广相似性损失,以处理属于同一类的任意数量的正样本:

        Lsupcon =i=1Kl1KNyij=1KlIijIyi=yjLcon (Gi,Gj)(5)

      其中,Nyi 表示训练集中与锚点 i 具有相同标签 yi 的样本总数。由于IGSD的图级对比性质,我们能够缓解带有监督对比损失的有偏负抽样问题,这是至关重要的,但在大多数 context-instance 对比学习模型中无法实现,因为子图通常很难给其分配标签。此外,有了这种损失,我们就能够使用自我训练来有效地调整我们的模型,其中伪标签被迭代地分配给未标记的数据。

      对于交叉熵或均方误差 L(GL,θ),总体目标可以总结为:

        Lsemi =L(GL,θ)+wLself-sup (GLGU,θ)+wLsupcon (GL,θ)(6)

    3 Experiments

    节点分类

      

      

    3 Conclusions

      在本文中,我们提出了一种新的基于自蒸馏的图级表示学习框架IGSD。我们的框架通过对图实例的增强视图的实例识别,迭代地执行师生精馏。在自监督和半监督设置下的实验结果表明,IGSD不仅能够学习与最先进的模型竞争的表达性图表示,而且对不同的编码器和增强策略的选择也有效。在未来,我们计划将我们的框架应用到其他的图形学习任务中,并研究视图生成器的设计,以自动生成有效的视图。

     


    __EOF__

  • 本文作者: Blair
  • 本文链接: https://www.cnblogs.com/BlairGrowing/p/16200705.html
  • 关于博主: 评论和私信会在第一时间回复。或者直接私信我。
  • 版权声明: 本博客所有文章除特别声明外,均采用 BY-NC-SA 许可协议。转载请注明出处!
  • 声援博主: 如果您觉得文章对您有帮助,可以点击文章右下角推荐一下。
  • 相关阅读:
    abc 325 d
    [附源码]Python计算机毕业设计Django基于JAVA技术的旅游信息交互系统
    向日葵远程控制遭勒索病毒攻击系谣言 贝锐官方已发公告辟谣
    前端培训丁鹿学堂:js异步及解决方案简析
    Django基础二静态文件和ORM
    基于51单片机的全自动智能洗衣机控制系统Proteus仿真
    你对云计算可能有些误解
    【MySQL篇】授权:授权与回收
    php异常和错误处理机制
    弹性盒子自动换行小Demo
  • 原文地址:https://www.cnblogs.com/BlairGrowing/p/16200705.html