• 通俗理解图神经网络GNN


    理解GNN的训练过程

    GNN的“模拟卷积核”在每个节点做的事情就是按照连接关系对每个节点进行聚合:
    n e w _ n o d e _ e m b e d d i n g = α ∗ o l d _ n o d e _ e m b e d d i n g + β ∗ f ( a r o u n d _ n o d e s _ e m b e d d i n g s ) new_node_embedding = \alphaold_node_embedding +\betaf(around_nodes_embeddings)new_node_embedding=α∗old_node_embedding+β∗f(around_nodes_embeddings)
    其中f ff可以看作是对其周围所有节点的一种操作方式,α , β \alpha, \betaα,β以及f ff内部对应的参数都可以成为训练的对象。
    这就是GNN做的事情。

    import numpy as np
    
    # 这个图是一个有向无环图(DAG)
    # -1 代表什么也不连
    # 图用二维列表,第一行代表节点编号,第二行为对应节点的指向节点
    graph = [
        [0,0,1,2,3],
        [1,2,3,3,4]
    ]
    
    # 定义5个节点的初始特征值
    embeddings = [
        [1,2,3],
        [2,6,5],
        [2,3,7],
        [7,8,6],
        [1,0,0]
    ]
    
    # 定义聚合的权重w全为1
    w = [1,1,1,1,1]
    
    # 下面开始图神经网络的聚合过程(训练过程)
    # 在这里每个节点只按照方向聚合一层
    for i in range(len(graph[0])):  # 每个节点
        # 先寻找指向节点i的节点们
        temp_roots = []
        for j, eve in enumerate(graph[1]):
            if eve == i:
                temp_roots.append(graph[0][j])
        temp_roots.append(i)
        # 此时temp_roots存储了节点i的根节点以及节点i自己的编号
        around = [
            [0, 0, 0],
            [0, 0, 0],
            [0, 0, 0],
            [0, 0, 0],
            [0, 0, 0]
        ]
        # 将temp_roots中的几点对应的around替换成当前的embedding
        for every_node_id in temp_roots:
            around[every_node_id] = embeddings[every_node_id]
        # 开始更新节点i的特征:自己之前的特征+周围节点特征的平均
        embeddings[i] = np.matmul(np.array(w),np.array(around))
    
    # 输出更新一层后的embeddings
    print(embeddings)
    
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28
    • 29
    • 30
    • 31
    • 32
    • 33
    • 34
    • 35
    • 36
    • 37
    • 38
    • 39
    • 40
    • 41
    • 42
    • 43
    • 44
    • 45
    • 46
    • 47
    • 48

    1) GNN 一般处理的任务是图分类或者节点分类,可以看出GNN一般的处理过程是对节点特征进行的训练。在训练获得图形的节点特征之后,可以通过对所有节点进行max、平均值等池化方式来表示整个图的特征。
    2)GNN中的NN学习的是在聚合节点时自己多重要,周围节点多重要,以及周围节点该怎么聚合,这是与图的形状无关的;而NN如何正确学习到这个信息就靠标签或者奖励值了。
    3)在搭建GNN网络时,搭建的其实是上面的参数α , β , f \alpha,\beta,fα,β,f的表示方法,因此这是与图的形状无关的。也就是意味着不同形状的图是可以使用一套GNN网络模型训练的,因为不同图形只是连接关系不一样,但是其权重是可以一样的。
    4)值得注意的是,GNN的一层是指节点们的一层embedings的表示,并且大多数GNN都是2-4层。一层相当于对图神经网络在垂直方向进行了一个复制,每一层节点的embeddings维度是一样的,但是不同层的embeddings可以不同:

    PYG框架搭建GNN

    import torch
    import torch.nn.functional as F
    from torch_geometric.nn import GCNConv
    from torch_geometric.datasets import Planetoid
    
    dataset = Planetoid(root='/tmp/Cora', name='Cora')
    
    class Net(torch.nn.Module):
        def __init__(self):
            super(Net, self).__init__()
            self.conv1 = GCNConv(dataset.num_node_features, 16)
            self.conv2 = GCNConv(16, dataset.num_classes)
    
        def forward(self, data):
            x, edge_index = data.x, data.edge_index
    
            x = self.conv1(x, edge_index)
            x = F.relu(x)
            x = F.dropout(x, training=self.training)
            x = self.conv2(x, edge_index)
    
            return F.log_softmax(x, dim=1)
    
    device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')
    model = Net().to(device)
    data = dataset[0].to(device)
    optimizer = torch.optim.Adam(model.parameters(), lr=0.01, weight_decay=5e-4)
    
    model.train()
    for epoch in range(200):
        optimizer.zero_grad()
        out = model(data)
        loss = F.nll_loss(out[data.train_mask], data.y[data.train_mask])
        loss.backward()
        optimizer.step()
    
    model.eval()
    _, pred = model(data).max(dim=1)
    correct = int(pred[data.test_mask].eq(data.y[data.test_mask]).sum().item())
    acc = correct / int(data.test_mask.sum())
    print('Accuracy: {:.4f}'.format(acc))
    
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28
    • 29
    • 30
    • 31
    • 32
    • 33
    • 34
    • 35
    • 36
    • 37
    • 38
    • 39
    • 40
    • 41
    • 42
  • 相关阅读:
    某60区块链安全之重入漏洞实战记录
    内网怎么使用通义灵码插件?
    AI大模型是真的贵
    DC/DC开关电源学习笔记(十二)Boost升压电路仿真及工程应用案例
    原版畅销36万册!世界级网工打造TCP/IP圣经级教材,第5版终现身
    能源计量器具的种类划分
    C++里sscanf()与swscanf()的使用
    扫描车牌是什么神经网络,卷积神经网络车牌识别
    文件上传下载
    知识图谱1_2——下载neo4j客户端
  • 原文地址:https://blog.csdn.net/qq_35557718/article/details/126584864