分享一篇ICML2019的 “老文章":


可以看出,A和B两个类别的 rooted subtree结构相同,因此,在没有节点feature的情况下,只通过结构,是无法对节点
v
1
v_1
v1和
v
2
v_2
v2分类的。
因此,只要节点能够区分相对位置的话,就可以解决这个问题。

首先选出k=3个anchor-set:
S
=
S
1
,
S
2
,
S
3
S={S_1,S_2,S_3}
S=S1,S2,S3,接下来通过函数
F
F
F来计算每个节点的位置编码,最后根据传统GNN来计算每个节点的新表示。
举个例子,比如,要通过 F F F计算 v 1 v_1 v1的编码 M v 1 M_{v_1} Mv1。可以看上图最右边部分,通过节点特征 h v 1 h_{v1} hv1,分别加上三个anchor-set S i S_i Si 中的每个节点特征,分别执行函数 F F F,再将三个执行后的结果加起来,就得到了 M v 1 M_{v_1} Mv1。这里还通过一个线性变换 W W W让三个结果变换到一个3维的位置编码 Z v 1 Z_{v_1} Zv1.
然后 M v 1 M_{v_1} Mv1输入到AGG聚合函数后,就得到新的节点表示。
那么这个位置编码 Z v 1 Z_{v_1} Zv1在哪里用到呢?作者表示,这个编码可以计算两个节点和节点标签的条件概率,即, p z ( y ∣ u , v ) = d z ( Z u , Z v ) p_z(y|u, v)=d_z(Z_u,Z_v) pz(y∣u,v)=dz(Zu,Zv),并且可以用一个可学习的函数 d z d_z dz来学习。
然后对比了传统GNN和P-GNN的损失函数:

作者还有别的一些理论分析,略过。

