目录
在深度学习领域,构建复杂的神经网络模型可能是一项艰巨的任务,尤其是当您有许多层和操作需要组织时。幸运的是,PyTorch提供了一个方便的工具,称为Sequential API,它简化了神经网络架构的构建过程。在本文中,将探讨如何使用Sequential API构建一个用于图像分类的卷积神经网络(CNN)。接下来将详细探讨每部分代码,并讨论每个组件,并清楚地了解如何在项目中充分利用PyTorch的Sequential API。
- import torch
- from torch import nn
- from torch.nn import Conv2d, MaxPool2d, Flatten, Linear, Sequential
- from torch.utils.tensorboard import SummaryWriter
在此代码片段中,导入了必要的库,包括PyTorch及其用于神经网络操作的模块,以及用于TensorBoard可视化的SummaryWriter。
- class Tudui(nn.Module):
- def __init__(self):
- super(Tudui, self).__init__()
- self.model1 = Sequential(
- Conv2d(3, 32, 5, padding=2),
- MaxPool2d(2),
- Conv2d(32, 32, 5, padding=2),
- MaxPool2d(2),
- Conv2d(32, 64, 5, padding=2),
- MaxPool2d(2),
- Flatten(),
- Linear(1024, 64),
- Linear(64, 10),
- )
Tudui类定义了神经网络模型。并使用Sequential API创建一系列层和操作,而不是逐一定义每个层并分别管理它们。在这种情况下,我们有三个卷积层,每个卷积层后跟一个最大池化层。然后,将输出展平并添加两个全连接(线性)层。这些层是按顺序定义的,使代码更加简明和可读。
- def forward(self, x):
- x = self.model1(x)
- return x
在forward方法中,通过模型构造函数传递输入张量x。由于层在self.model1中按顺序组织,并不需要在前向传递中单独调用每个层。这简化了代码并增强了其清晰度。
tudui = Tudui()
创建了Tudui模型的一个实例。
- input = torch.ones((64, 3, 32, 32))
- output = tudui(input)
生成一个形状为(64, 3, 32, 32)的示例输入张量,并将其通过模型传递以获得输出。
- writer = SummaryWriter("logs")
- writer.add_graph(tudui, input)
- writer.close()
为了使用TensorBoard可视化模型的架构和计算图,所以创建了一个SummaryWriter并添加了图形。这一步对于调试和理解数据流经网络的过程非常有价值。
完整代码如下:
- """
- 输入大小为3*32*32
- 经过3次【5*5卷积核卷积-2*2池化核池化】操作后,输出为64*4*4大小
- 展平后为1*1024大小
- 经过全连接层后输出为1*10
- """
- import torch
- from torch import nn
- from torch.nn import Conv2d, MaxPool2d, Flatten, Linear, Sequential
- from torch.utils.tensorboard import SummaryWriter
-
- class Tudui(nn.Module):
- def __init__(self):
- super(Tudui,self).__init__()
- # self.conv1 = Conv2d(3,32,5,padding=2)
- # # self.maxpool1 = MaxPool2d(2)
- # # self.conv2 = Conv2d(32,32,5,padding=2)
- # # self.maxpool2 = MaxPool2d(2)
- # # self.conv3 = Conv2d(32,64,5,padding=2)
- # # self.maxpool3 = MaxPool2d(2)
- # # self.flatten = Flatten()
- # # self.linear1 = Linear(1024,64)
- # # self.linear2 = Linear(64,10)
- # 构建一个序列化的container,可以把想要在神经网络中添加的操作都放进去,按顺序进行执行。
- self.model1 =Sequential(
- Conv2d(3, 32, 5, padding=2),
- MaxPool2d(2),
- Conv2d(32, 32, 5, padding=2),
- MaxPool2d(2),
- Conv2d(32, 64, 5, padding=2),
- MaxPool2d(2),
- Flatten(),
- Linear(1024, 64),
- Linear(64, 10),
- )
- """
- 可以看到上面神经网络进行搭建时非常繁琐,在init中进行了多个操作的定以后需要在forward中逐次进行调用,
- 因此我们使用sequential方法,在init方法中直接定义一个model,然后在下面的forward方法中直接使用一次model即可。
- """
- def forward(self,x):
- # x = self.conv1(x)
- # x = self.maxpool1(x)
- # x = self.conv2(x)
- # x = self.maxpool2(x)
- # x = self.conv3(x)
- # x = self.maxpool3(x)
- # x = self.flatten(x)
- # x = self.linear1(x)
- # x = self.linear2(x)
-
- x = self.model1(x)
- return x
-
-
-
- tudui = Tudui()
- print(tudui)
- input = torch.ones((64,3,32,32))
- output = tudui(input)
- print(output.shape)
-
- writer = SummaryWriter("logs")
- writer.add_graph(tudui,input)
- writer.close()
参考资料: