• CNN - nn.Conv1d使用



    一、Conv1d 参数设定

    torch.nn.Conv1d(in_channels,       "输入图像中的通道数"
                    out_channels,      "卷积产生的通道数"
                    kernel_size,       "卷积核的大小"
                    stride,            "卷积的步幅。默认值:1"
                    padding,           "添加到输入两侧的填充。默认值:0"
                    dilation,          "内核元素之间的间距。默认值:1"
                    groups,            "从输入通道到输出通道的阻塞连接数。默认值:1"
                    bias,              "If True,向输出添加可学习的偏差。默认:True"
                    padding_mode       "'zeros', 'reflect', 'replicate' 或 'circular'. 默认:'zeros'"
                    )
    
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11

    in_channels ( int ) – 输入图像中的通道数
    out_channels ( int ) – 卷积产生的通道数
    kernel_size ( int or tuple ) – 卷积核的大小
    stride ( int or tuple , optional ) – 卷积的步幅。默认值:1
    padding ( int , tuple或str , optional ) – 添加到输入两侧的填充。默认值:0
    dilation ( int or tuple , optional ) – 内核元素之间的间距。默认值:1
    groups ( int , optional ) – 从输入通道到输出通道的阻塞连接数。默认值:1
    bias ( bool , optional ) – If True,向输出添加可学习的偏差。默认:True
    padding_mode (字符串,可选) – ‘zeros’, ‘reflect’, ‘replicate’或’circular’. 默认:‘zeros’

    二、Conv1d 输入输出以及卷积核维度

    input ( minibatch , in_channels , i W ) (\text{minibatch} , \text{in\_channels} , iW) (minibatch,in_channels,iW) (批大小, 数据的通道数, 数据长度)
    output ( minibatch , out_channels  , i W ) (\text{minibatch} , \text{out\_channels } , iW) (minibatch,out_channels ,iW) (批大小, 产生的通道数, 卷积后长度)

    卷积后的维度:(n - k + 2 * p ) / s + 1
    k: 卷积核大小,p: 使用边界填充,s: 步长。

    卷积核维度: ( in_channels , k e r n e l _ s i z e , out_channels  ) (\text{in\_channels} , kernel\_size, \text{out\_channels }) (in_channels,kernel_size,out_channels )

    其中:out_channels维度,代表卷积核的个数,用来提取多维特征。

    三、Conv1d 计算过程

    1. 测试一:in_channels=1, out_channels=1

    定义卷积如下: 输入通道:1, 输出通道:1,卷积核:1 * 3 * 1,步长:1,填充:0
    输入: 批大小:1, 数据的通道数:1, 数据长度: 5

    import torch
    import torch.nn as nn
    input = torch.randn(1, 1, 5)
    conv = nn.Conv1d(in_channels=1, out_channels=1, kernel_size=3, stride=1, padding=0)
    out = conv(input)
    
    • 1
    • 2
    • 3
    • 4
    • 5

    第一次卷积计算如下:
    在这里插入图片描述
    按照步长依次向后移动计算:
    在这里插入图片描述

    输出: 批大小:1, 数据的通道数:1, 数据长度: 3

    运行结果:
    在这里插入图片描述

    2. 测试二:in_channels=1, out_channels=2

    定义卷积如下: 输入通道:1, 输出通道:2, 卷积核:1 3 2 (两个 13,提取两维特征 )*, 步长:1,填充:0
    输入: 批大小:1, 数据的通道数:1, 数据长度: 5

    import torch
    import torch.nn as nn
    input = torch.randn(1, 1, 5)
    conv = nn.Conv1d(in_channels=1, out_channels=2, kernel_size=3, stride=1, padding=0)
    out = conv(input)
    
    • 1
    • 2
    • 3
    • 4
    • 5

    输出: 批大小:1, 数据的通道数:2, 数据长度: 3

    在这里插入图片描述

    3. 测试三:in_channels=8, out_channels=1

    定义卷积如下: 输入通道:8, 输出通道:1, 卷积核:8 * 3 * 1 , 步长:1,填充:0
    输入: 批大小:1, 数据的通道数:1, 数据长度: 7

    在这里插入图片描述

    import torch
    import torch.nn as nn
    input = torch.randn(1, 8, 7)
    conv = nn.Conv1d(in_channels=8, out_channels=1, kernel_size=3, stride=1, padding=0)
    out = conv(input)
    
    • 1
    • 2
    • 3
    • 4
    • 5

    在这里插入图片描述

    输出: 批大小:1, 数据的通道数:1, 数据长度: 5

    3. 测试三:in_channels=8, out_channels=2

    定义卷积如下: 输入通道:8, 输出通道:1, 卷积核:8 * 3 * 2 , 步长:1,填充:0
    输入: 批大小:1, 数据的通道数:1, 数据长度: 7

    import torch
    import torch.nn as nn
    input = torch.randn(1, 8, 7)
    conv = nn.Conv1d(in_channels=8, out_channels=2, kernel_size=3, stride=1, padding=0)
    out = conv(input)
    
    • 1
    • 2
    • 3
    • 4
    • 5

    在这里插入图片描述
    输出: 批大小:1, 数据的通道数:2, 数据长度: 5

    四、Conv1d 在文本中的应用 – TextCNN

    论文:Convolutional Neural Networks for Sentence Classification

    模型框架如下图所示。
    在这里插入图片描述

    假设我们需要对句子进行分类。句子中每个词是由 n 维词向量组成的,也就是说输入矩阵大小为 m*n,其中m为句子长度。 在 pytorch 中,从左往右卷积,因此要将输入维度调换,即(n, m)— (词向量维度, 句子长度)
    在这里插入图片描述

    如上图所示:输入维度是:(5, 7):

    import torch
    import torch.nn as nn
    input = torch.randn(1, 5, 7)
    
    • 1
    • 2
    • 3

    CNN需要对输入样本进行卷积操作,对于文本数据,有点类似于N-gram在提取词与词间的局部相关性。图中共有三种 kernel_size 的卷积,分别是2,3,4,每个 kernel_size 都有两个filter(实际训练时filter数量会很多)。在不同词窗上应用不同filter,最终得到6个卷积后的向量。

    以 kernel_size = 4 为例:卷积核维度 (5, 4)

    import torch
    import torch.nn as nn
    input = torch.randn(1, 5, 7)
    conv = nn.Conv1d(in_channels=5, out_channels=1, kernel_size=4, stride=1, padding=0)
    out = conv(input)
    
    • 1
    • 2
    • 3
    • 4
    • 5

    输出:
    在这里插入图片描述

    然后对每一个向量进行最大化池化操作并拼接各个池化值,最终得到这个句子的特征表示,将这个句子向量丢给分类器进行分类,至此完成整个流程。

  • 相关阅读:
    pdf文件转txt怎么转?这几个方法你值得收藏
    lighttpd Response增加安全头Referrer-Policy和X-Permitted-Cross-Domain-Policies方法
    [ 渗透测试面试篇 ] 渗透测试面试题大集合(详解)(三)CSRF相关面试题
    学习c#的第二十三天
    java基础运算符 之 逻辑运算符
    钉钉小程序 访问ip不在白名单之中
    2022华为杯研究生数学建模赛题思路分析
    hive:常见日期函数
    python列表的三种遍历方法(for循环,索引,下标)
    大模型从入门到应用——LangChain:代理(Agents)-[工具包(Toolkit)]
  • 原文地址:https://blog.csdn.net/xu624735206/article/details/124961990