是聚类让我们“聚类”,我整理了部分深度图聚类代码,希望大家多多支持(GitHub代码):A-Unified-Framework-for-Deep-Attribute-Graph-Clustering!❤️
原文地址: 论文阅读11——《Mutual Boost Network for Attributed Graph Clustering》
作者:Xiaoqiang Yan, Xiangyu Yu, Shizhe Hu, Yangdong Ye
发表时间:预印本
论文地址:https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4195979
节点和结构特征之间差异的限制。节点和结构特征产生的聚类分配的一致性仍然是一个具有挑战性的问题,这往往会导致聚类性能下降。现有方法忽略了这个问题。自编码器和图自编码器组成,可以相互学习和交互,实现聚类性能的相互提升。表示增强机制,以促进异构节点和结构特征的传播和融合。表示增强模块,将来自节点和结构特征的异构信息传播出去,用于学习综合表示。然后通过对比聚类分配,设计了一致性约束,提供了相互指导,使聚类分配趋于一致。最后在一个统一的框架下,以自监督的方式,同时优化表示学习和聚类分配过程。关键前提是学习节点的判别表示。拓扑与节点特征的融合方面并不理想,存在过平滑问题。
没啥好说的了,写了这么多篇论文阅读,都有自编码器模块,可以去前面的文章看。最终得到一个属性的重建损失,用于后面的模型训练。
与DFCN中IGAE模块类似,使用图卷积作为编码器部分,同时解码器部分也用图卷积:
Z
(
l
+
1
)
=
φ
(
A
~
Z
(
l
)
U
e
(
l
)
)
Z
^
(
k
+
1
)
=
φ
(
A
~
Z
(
k
)
U
d
(
k
)
)
重建邻接矩阵:
A
^
=
σ
(
Z
Z
⊤
)
+
σ
(
Z
^
Z
^
⊤
)
\hat{A}=\sigma(ZZ^\top)+\sigma(\hat{Z}\hat{Z}^\top)
A^=σ(ZZ⊤)+σ(Z^Z^⊤)
最后通过以下损失函数进行训练:
L
G
A
E
=
L
f
+
δ
L
a
L
f
=
1
2
N
∥
A
~
X
−
Z
^
∥
2
2
L
a
=
1
2
N
∥
A
~
−
A
^
∥
2
2
分别表示GAE的损失函数、特征表示Z的重建损失、邻接矩阵的重建损失。
用于传播和融合异构节点和结构信息,以获得更全面、更有区分度的表示。该模块包括两个步骤:层间信息传播和结构信息融合。首先,为了从图数据中提取更多的鉴别信息,将节点的纯属性特征集成到GCN中进行结构表示学习,对具有结构信息的特征信息的传播,通过线性计算将AE中的特征注入到GAE模块对应的层,这里说这么多其实还是SDCN中的传递算子进行的操作,公式也不展示了。
为了进一步提高表示质量,利用一个类似图卷积的算子来从邻居中集成结构信息:
Z
=
A
~
(
Y
(
L
)
+
Z
(
L
)
)
Z=\widetilde{A}(Y^{(L)}+Z^{(L)})
Z=A
(Y(L)+Z(L))
其实就是用归一化拉普拉斯算子
A
~
\widetilde{A}
A
对自编码器的最后一层嵌入表示
Y
(
L
)
Y^{(L)}
Y(L)和图自编码器的最后一层嵌入表示
Z
(
L
)
Z^{(L)}
Z(L)进行信息聚合的操作,所谓类似图卷积,就是将图卷积神经网络中的参数矩阵看作单位矩阵
I
I
I。
这里与之前模型不同的是,没有使用自编码器嵌入
Y
Y
Y的辅助分布,而是使用图自编码器嵌入
Z
Z
Z的目标分布
Q
Z
Q_Z
QZ和辅助分布
P
Z
P_Z
PZ,对应的损失函数为:
L
c
l
u
=
K
L
(
P
Z
∥
Q
Z
)
=
∑
i
∑
j
p
i
j
log
p
i
j
q
i
j
L
c
o
n
=
K
L
(
Q
Z
∥
Q
Y
)
=
∑
i
∑
j
q
i
j
log
q
i
j
q
i
j
′
总的损失函数:
L
=
L
r
e
c
+
α
L
c
l
u
+
β
L
c
o
n
L
r
e
c
=
L
G
A
E
+
L
A
E
最终的聚类结果使用自编码器嵌入
Y
Y
Y的目标分布
Q
Y
Q_Y
QY作为聚类结果:
r
i
=
arg
max
j
q
i
j
r_i=\arg\max_jq_{ij}
ri=argjmaxqij


提出一种新的双通道属性图聚类网络(MBN),该网络由自编码器和图自编码器组成,他们可以相互学习和交互。
MBN的优点: