• Pytorch_course1


    neural Networks

    Autograd实现了反向传播功能,但是直接用来写深度学习的代码在很多情况下还是稍显复杂,torch.nn是专门为神经网络设计的模块化接口。nn构建于 Autograd之上,可用来定义和运行神经网络。nn.Module是nn中最重要的类,可把它看成是一个网络的封装,包含网络各层定义以及forward方法,调用forward(input)方法,可返回前向传播的结果。下面就以最早的卷积神经网络:LeNet为例,来看看如何用nn.Module实现。LeNet的网络结构如图2-7所示。
    在这里插入图片描述

    这是一个基础的前向传播(feed-forward)网络: 接收输入,经过层层传递运算,得到输出。

    定义网络

    定义网络时,需要继承nn.Module, 并实现它的forward方法,把网络中具有可学习参数的层放在构造函数__init__中。如果某一层(如relu)不具有可学习的参数,则既可以放在构造华南虎中,也可以不放, 但不建议放在其中,而在forward中使用nn.functional代替

    import torch
    import torch.nn.functional as f
    
    class leNet(torch.nn.Module):
        def __init__(self):
            # nn.Module子类的函数必须在构造函数中执行父类的构造函数
            # 下式等价于nn.Module.__init__(self)
            super(leNet, self).__init__()
            
            # 卷积层:'1'表示输入图片为单通道, '6'表示输出通道数,'5'表示卷积核为5*5
            self.conv1 = torch.nn.Conv2d(1, 6, 5)
            
            self.conv2 = torch.nn.Conv2d(6, 16, 5)
            
            # 全连接层 y = Wx + b
            self.fc1 = torch.nn.Linear(16*5*5, 120)
            self.fc2 = torch.nn.Linear(120, 84)
            self.fc3 = torch.nn.Linear(84, 10)
            
        def forward(self, x):
            # 卷积 -> 激活 -> 池化
            x = torch.nn.functional.max_pool2d(torch.nn.functional.relu(self.conv1(x)), (2,2))
            x = torch.nn.functional.max_pool2d(torch.nn.functional.relu(self.conv2(x)), 2)
            
            # reshape,‘-1’表示自适应
            x = x.view(x.size()[0], -1)
            x = torch.nn.functional.relu(self.fc1(x))
            x = torch.nn.functional.relu(self.fc2(x))
            x = self.fc3(x)
            return x
        
    lenet = leNet()
    print(lenet)
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28
    • 29
    • 30
    • 31
    • 32
    • 33
    leNet(
      (conv1): Conv2d(1, 6, kernel_size=(5, 5), stride=(1, 1))
      (conv2): Conv2d(6, 16, kernel_size=(5, 5), stride=(1, 1))
      (fc1): Linear(in_features=400, out_features=120, bias=True)
      (fc2): Linear(in_features=120, out_features=84, bias=True)
      (fc3): Linear(in_features=84, out_features=10, bias=True)
    )
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7

    只要在nn.Module的子类中定义了forward函数,backward函数就会自动被实现(利用autograd)。在forward 函数中可使用任何tensor支持的函数,还可以使用if、for循环、print、log等Python语法,写法和标准的Python写法一致。

    网络的可学习参数通过net.parameters()返回,net.named_parameters可同时返回可学习的参数及名称。

    parms = list(lenet.parameters())
    print(len(parms))
    
    • 1
    • 2
    10
    
    • 1
    for name, parameters in lenet.named_parameters():
        print(name,':',parameters.size())
    
    • 1
    • 2
    conv1.weight : torch.Size([6, 1, 5, 5])
    conv1.bias : torch.Size([6])
    conv2.weight : torch.Size([16, 6, 5, 5])
    conv2.bias : torch.Size([16])
    fc1.weight : torch.Size([120, 400])
    fc1.bias : torch.Size([120])
    fc2.weight : torch.Size([84, 120])
    fc2.bias : torch.Size([84])
    fc3.weight : torch.Size([10, 84])
    fc3.bias : torch.Size([10])
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10

    forward函数的输入和输出都是Tensor。

    input = torch.randn(1, 1, 32, 32)
    out = lenet(input)
    out.size()
    
    • 1
    • 2
    • 3
    torch.Size([1, 10])
    
    • 1
    lenet.zero_grad() # 所有参数的梯度清零
    out.backward(torch.ones(1, 10)) # 反向传播
    
    • 1
    • 2

    需要注意的是,torch.nn只支持mini-batches,不支持一次只输入一个样本,即一次必须是一个batch。但如果只想输入一个样本,则用 input.unsqueeze(0)将batch_size设为1。例如 nn.Conv2d 输入必须是4维的,形如nSample ✖ nChannnels ✖ Height ✖ Width。可将nSample设为1,即1 ✖ nChannnels ✖ Height ✖ Width

    损失函数

    nn实现了神经网络中大多数的损失函数,例如nn.MSELoss用来计算均方误差,nn.CrossEntropyLoss用来计算交叉熵损失

    output = lenet(input)
    target = torch.arange(0, 10).view(1, 10).float()
    criterion = torch.nn.MSELoss()
    loss = criterion(output, target)
    loss # loss是个scalar
    
    • 1
    • 2
    • 3
    • 4
    • 5
    tensor(28.7743, grad_fn=)
    
    • 1

    如果对loss进行反向传播溯源(使用gradfn属性),可看到它的计算图如下:

    input -> conv2d -> relu -> maxpool2d -> conv2d -> relu -> maxpool2d  
    
      -> view -> linear -> relu -> linear -> relu -> linear   
      
      -> MSELoss  
      
      -> loss
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7

    当调用loss.backward()时,该图会动态生成并自动微分,也即会自动计算图中参数(Parameter)的导数。而且图中所有设置为requires_grad=True的张量将会拥有一个随着梯度累积的.grad张量
    为了说明我们向后退几步:

    print(loss.grad_fn)  # MSELoss
    print(loss.grad_fn.next_functions[0][0])  # Linear
    print(loss.grad_fn.next_functions[0][0].next_functions[0][0])  # ReLU
    
    • 1
    • 2
    • 3
    
    
    
    
    • 1
    • 2
    • 3

    反向传播

    调用loss.backward()获得反向传播的误差。

    但是在调用前需要清除已存在的梯度,否则梯度将被累加到已存在的梯度。

    现在,我们将调用loss.backward(),并查看conv1层的偏差(bias)项在反向传播前后的梯度。

    # 运行.backward,观察调用之前和调用之后的grad
    lenet.zero_grad() # 把lenet中所有可学习参数的梯度清零
    print('反向传播之前 conv1.bias的梯度')
    print(lenet.conv1.bias.grad)
    
    
    loss.backward()
    print('反向传播之后 conv1.bias的梯度')
    print(lenet.conv1.bias.grad)
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    反向传播之前 conv1.bias的梯度
    tensor([0., 0., 0., 0., 0., 0.])
    反向传播之后 conv1.bias的梯度
    tensor([-0.0891, -0.0052, -0.0706,  0.0699,  0.1144, -0.1100])
    
    • 1
    • 2
    • 3
    • 4

    优化器

    在反向传播计算完所有参数的梯度后,还需要使用优化方法来更新网络的权重和参数,例如随机梯度下降法(SGD)的更新策略如下:

    weight = weight - learning_rate * gradient

    手动实现如下:

    learning_rate = 0.01
    for f in lenet.parameters():
        f.data.sub_(f.grad.data * learning_rate) # inplace减法
    
    • 1
    • 2
    • 3

    torch.optim中实现了深度学习中绝大多数的优化方法,例如RMSProp、Adam、SGD等,更便于使用,因此大多数时候并不需要手动写上述代码。

    import torch.optim as optim
    #新建一个优化器,指定要调整的参数和学习率
    optimizer = torch.optim.SGD(lenet.parameters(), lr = 0.01)
    
    # 在训练过程中
    # 先梯度清零(与lenet.zero_grad()效果一样)
    
    optimizer.zero_grad()
    
    # 计算损失
    output = lenet(input)
    loss = criterion(output, target)
    
    # 反向传播
    loss.backward()
    
    # 更新参数
    optimizer.step()
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
  • 相关阅读:
    卡片懸停毛玻璃效果
    php反序列化个人笔记
    Spring基础(七):使用外部属性配置文件
    2021数据库小测一
    神经网络数据融合特征提取,神经网络 信息融合
    pytorch 学习(1)
    ssm+springmvc基于springboot的宠物领养系统的设计与实现_j5fk4
    软技能之UML图
    HashMap的几种遍历方式及循环删除
    Java学习第一章:Java语言概述
  • 原文地址:https://blog.csdn.net/wenxingxingxing/article/details/126831748