• GCN 翻译 - 1


    ABSTRACT

    我们提出了一种可扩展的在以图结构为基础的数据上的半监督学习,这种方法直接作用在图数据上,可以看做是卷积神经网络的变种。我们选择了图谱理论里面的一阶近似作为我们的卷积结构。我们的模型能够随着图的规模线性伸缩,并且隐藏层的表示能够将图的局部结构和节点的特征都编码进来。在一系列的引用网络和知识图谱数据集的实验中,我们证明了我们的方法在很大的幅度超过相关方法。

    INTRODUCTION

    我们考虑在一个图结构(例如引用网络)来给节点分类的问题,只有少量的节点有label数据。这个问题可以被定义为以图为基础的半监督学习,label信息能够通过凭借图为基础的规则平滑过渡。使用图Laplacian 正则项的loss function :

    L =L _{0} + \lambda L_{reg}, with \, L_{reg} = \sum_{i,j}A_{ij}||f(X_{i}) - f(X_j) ||^{2} = f(X)^{T}\Delta f(X). \quad (1)

    这里L_{0}表示关于图上有label部分的节点的监督损失函数。f(.)是一个像神经网络一样的可微函数。\lambda是权重因子, X是节点特征向量的矩阵X_i。对于一个无向图g = (\nu ,\varepsilon ),N个结点v_{i} \in \nu,边(v_i, v_j) \in \varepsilon,邻接矩阵A\in R^{N*N}(0-1或带权重的邻接矩阵)、度数矩阵D_{ii} = \Sigma_jA_{ij}\Delta = D- A表示非归一化的图拉普拉斯矩阵。公式(1) 依赖于图中连接的节点更有可能共享相同的节点label的假设。然而,这个假设可能限制模型的能力,因为图的边可以包含其他信息,不仅仅只是编码依赖编码点的相似性。

    在这篇工作中,我们直接将图结构编码到神经网络模型f(X,A)并且对于所有有label的节点进行监督学习训练,这样可以避免特意在损失函数里面进行正则化。函数f(.)作用在邻接矩阵上能够让模型将梯度信息从监督损失L_0传播,能够让有label和没有label的节点都学习到表征。

    我们的贡献分为2部分。第一,我们提出了一个简单但是有效的layer-wise传播的规则的神经网络模型,这个模型能够直接作用在图结构上,同时在理论上能够推导出它是谱域图卷积的一阶近似。第二,我们实践说明了这种基于图的神经网络能够快速的规模化的应用于图中节点的半监督分类。在一系列数据集上的实验说明我们的模型相比于目前最好的半监督分类方法在分类准确性和效率上都有优势。

  • 相关阅读:
    Python中的迭代器
    【cm8】丝滑版本2023-11-10测试结论记录
    Maven之aop框架
    机械臂速成小指南(五):末端执行器
    第四个专栏,Kubernetes云原生实战,它来了~
    Window环境NFS服务务器搭建及连接
    基于Springboot+超市管理系统 毕业设计-附源码231443
    隐私计算 FATE - 多分类神经网络算法测试
    WebKit Inside: DOM树的构建
    第6章——数据库的安全性
  • 原文地址:https://blog.csdn.net/zhangsj1007/article/details/136256124