• 深度学习入门(十九)深度学习计算——自定义层


    前言

    核心内容来自博客链接1博客连接2希望大家多多支持作者
    本文记录用,防止遗忘

    深度学习计算——自定义层

    教材

    深度学习成功背后的一个因素是神经网络的灵活性: 我们可以用创造性的方式组合不同的层,从而设计出适用于各种任务的架构。 例如,研究人员发明了专门用于处理图像、文本、序列数据和执行动态规划的层。 在这些情况下,你必须学会构建自定义层。

    1 不带参数的层

    首先,我们构造一个没有任何参数的自定义层。 如果你还记得我们对块的介绍, 这应该看起来很眼熟。 下面的CenteredLayer类要从其输入中减去均值。 要构建它,我们只需继承基础层类并实现前向传播功能。

    import torch
    import torch.nn.functional as F
    from torch import nn
    
    
    class CenteredLayer(nn.Module):
        def __init__(self):
            super().__init__()
    
        def forward(self, X):
            return X - X.mean()
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11

    让我们向该层提供一些数据,验证它是否能按预期工作。

    layer = CenteredLayer()
    layer(torch.FloatTensor([1, 2, 3, 4, 5]))
    
    • 1
    • 2

    输出:

    tensor([-2., -1.,  0.,  1.,  2.])
    
    • 1

    现在,我们可以将层作为组件合并到更复杂的模型中。

    net = nn.Sequential(nn.Linear(8, 128), CenteredLayer())
    
    • 1

    作为额外的健全性检查,我们可以在向该网络发送随机数据后,检查均值是否为0。 由于我们处理的是浮点数,因为存储精度的原因,我们仍然可能会看到一个非常小的非零数。

    Y = net(torch.rand(4, 8))
    Y.mean()
    
    • 1
    • 2

    输出:

    tensor(0., grad_fn=<MeanBackward0>)
    
    • 1

    2 带参数的层

    以上我们知道了如何定义简单的层,下面我们继续定义具有参数的层, 这些参数可以通过训练进行调整。 我们可以使用内置函数来创建参数,这些函数提供一些基本的管理功能。 比如管理访问、初始化、共享、保存和加载模型参数。 这样做的好处之一是:我们不需要为每个自定义层编写自定义的序列化程序。

    在之前介绍了Parameter类其实是Tensor的子类,如果一个TensorParameter,那么它会自动被添加到模型的参数列表里。所以在自定义含模型参数的层时,我们应该将参数定义成Parameter,除了直接定义成Parameter类外,还可以使用ParameterListParameterDict分别定义参数的列表和字典。

    ParameterList接收一个Parameter实例的列表作为输入然后得到一个参数列表,使用的时候可以用索引来访问某个参数,另外也可以使用appendextend在列表后面新增参数。

    class MyDense(nn.Module):
        def __init__(self):
            super(MyDense, self).__init__()
            self.params = nn.ParameterList([nn.Parameter(torch.randn(4, 4)) for i in range(3)])
            self.params.append(nn.Parameter(torch.randn(4, 1)))
    
        def forward(self, x):
            for i in range(len(self.params)):
                x = torch.mm(x, self.params[i])
            return x
    net = MyDense()
    print(net)
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12

    输出:

    MyDense(
      (params): ParameterList(
          (0): Parameter containing: [torch.FloatTensor of size 4x4]
          (1): Parameter containing: [torch.FloatTensor of size 4x4]
          (2): Parameter containing: [torch.FloatTensor of size 4x4]
          (3): Parameter containing: [torch.FloatTensor of size 4x1]
      )
    )
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8

    ParameterDict接收一个Parameter实例的字典作为输入然后得到一个参数字典,然后可以按照字典的规则使用了。例如使用update()新增参数,使用keys()返回所有键值,使用items()返回所有键值对等等

    class MyDictDense(nn.Module):
        def __init__(self):
            super(MyDictDense, self).__init__()
            self.params = nn.ParameterDict({
                    'linear1': nn.Parameter(torch.randn(4, 4)),
                    'linear2': nn.Parameter(torch.randn(4, 1))
            })
            self.params.update({'linear3': nn.Parameter(torch.randn(4, 2))}) # 新增
    
        def forward(self, x, choice='linear1'):
            return torch.mm(x, self.params[choice])
    
    net = MyDictDense()
    print(net)
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14

    输出:

    MyDictDense(
      (params): ParameterDict(
          (linear1): Parameter containing: [torch.FloatTensor of size 4x4]
          (linear2): Parameter containing: [torch.FloatTensor of size 4x1]
          (linear3): Parameter containing: [torch.FloatTensor of size 4x2]
      )
    )
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7

    这样就可以根据传入的键值来进行不同的前向传播:

    x = torch.ones(1, 4)
    print(net(x, 'linear1'))
    print(net(x, 'linear2'))
    print(net(x, 'linear3'))
    
    • 1
    • 2
    • 3
    • 4

    我们也可以使用自定义层构造模型。它和PyTorch的其他层在使用上很类似。

    net = nn.Sequential(
        MyDictDense(),
        MyListDense(),
    )
    print(net)
    print(net(x))
    
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7

    输出:

    Sequential(
      (0): MyDictDense(
        (params): ParameterDict(
            (linear1): Parameter containing: [torch.FloatTensor of size 4x4]
            (linear2): Parameter containing: [torch.FloatTensor of size 4x1]
            (linear3): Parameter containing: [torch.FloatTensor of size 4x2]
        )
      )
      (1): MyListDense(
        (params): ParameterList(
            (0): Parameter containing: [torch.FloatTensor of size 4x4]
            (1): Parameter containing: [torch.FloatTensor of size 4x4]
            (2): Parameter containing: [torch.FloatTensor of size 4x4]
            (3): Parameter containing: [torch.FloatTensor of size 4x1]
        )
      )
    )
    tensor([[-101.2394]], grad_fn=<MmBackward>)
    
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19

    现在,让我们实现自定义版本的全连接层。 回想一下,该层需要两个参数,一个用于表示权重,另一个用于表示偏置项。 在此实现中,我们使用修正线性单元作为激活函数。 该层需要输入参数:`in_units`和`units`,分别表示输入数和输出数。
    class MyLinear(nn.Module):
        def __init__(self, in_units, units):
            super().__init__()
            self.weight = nn.Parameter(torch.randn(in_units, units))
            self.bias = nn.Parameter(torch.randn(units,))
        def forward(self, X):
            linear = torch.matmul(X, self.weight.data) + self.bias.data
            return F.relu(linear)
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8

    接下来,我们实例化MyLinear类并访问其模型参数。

    linear = MyLinear(5, 3)
    linear.weight
    
    • 1
    • 2

    输出:

    Parameter containing:
    tensor([[-1.4779, -0.6027, -0.2225],
            [ 1.1270, -0.6127, -0.2008],
            [-2.1864, -1.0548,  0.2558],
            [ 0.0225,  0.0553,  0.4876],
            [ 0.3558,  1.1427,  1.0245]], requires_grad=True)
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6

    我们可以使用自定义层直接执行前向传播计算。

    linear(torch.rand(2, 5))
    
    • 1

    输出:

    tensor([[0.0000, 0.0000, 0.2187],
            [0.0000, 0.0000, 0.0000]])
    
    • 1
    • 2

    我们还可以使用自定义层构建模型,就像使用内置的全连接层一样使用自定义层。

    net = nn.Sequential(MyLinear(64, 8), MyLinear(8, 1))
    net(torch.rand(2, 64))
    
    • 1
    • 2

    输出:

    tensor([[ 7.4571],
            [12.7505]])
    
    • 1
    • 2

    3 小结

    我们可以通过基本层类设计自定义层。这允许我们定义灵活的新层,其行为与深度学习框架中的任何现有层不同。

    在自定义层定义完成后,我们就可以在任意环境和网络架构中调用该自定义层。

    层可以有局部参数,这些参数可以通过内置函数创建。

  • 相关阅读:
    mount -o bind
    MySQL数值函数
    前端面试前端性能优化篇
    1.4 内网穿透与通知、查询用户订单
    laravel 使用mpdf将html转化成pdf
    香港:考虑将虚拟资产列为投资移民资产
    python 处理json数据
    Python 处理 PDF 的神器 -- PyMuPDF
    速卖通商品详情API接口(标题|主图|SKU|价格|商品描述)
    Vue的生命周期跟我们一样,你知道吗?
  • 原文地址:https://blog.csdn.net/qq_52358603/article/details/127667951