• Transformer学习


    Transformer学习笔记



    一、Transformer的优势

    1.能够利用多GPU并行训练,提升训练效率
    2.分析长文本时,捕捉间隔较长的语义关联效果好

    二、Transformer

    1.模型作用

    在这里插入图片描述
    在这里插入图片描述

    2.架构图

    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述

    3.输入部分实现

    文本嵌入层的作用:
    无论是源文本嵌入还是目标文本嵌入,都是为了将文本中词汇的数字表示转变为向量表示,希望在高维度空间捕捉词汇间向量关系。
    在这里插入图片描述
    在这里插入图片描述

    3.1 位置编码器的作用

    因为在Transformer的编码器结构中,并没有针对词汇位置信息的处理,因此需要在Embedding层后加入位置编码器,将词汇位置不同可能会产生不同语义的信息加入到词嵌入张量中,以弥补位置信息的缺失。

    # 构建位置编码器的类
    class PositionalEncoding(nn.Module):
        def __init__(self, d_model, dropout, max_len=5000):
            # d_model: 代表词嵌入的维度
            # dropout: 代表Dropout层的置零比率
            # max_len: 代表每隔句子的最大长度
            super(PositionalEncoding, self).__init__()
            
            # 实例化Dropout层
            self.dropout = nn.Dropout(p=dropout)
            
            # 初始化一个位置编码矩阵, 大小是max_len * d_model
            pe = torch.zeros(max_len, d_model)
            
            # 初始化一个绝对位置矩阵, max_len * 1
            position = torch.arange(0, max_len).unsqueeze(1)
            
            ##绝对位置矩阵初始化之后,接下来就是考虑如何将这些位置信息加入到位置编码矩阵中,
            #最简单思路就是先将max_len x 1的绝对位置矩阵,变换成max_len x d_model形状,然后覆盖原来的初始位置编码矩阵即可,
            ##要做这种矩阵变换,就需要一个1xd_model形状的变换矩阵div_term,我们对这个变换矩阵的要求除了形状外
            ##还希望它能够将自然数的绝对位置编码缩放成足够小的数字,有助于在之后的梯度下降过程中更快收敛
            #首先使用arange获得一个自然数矩阵,但是细心的同学们会发现,我们这里并没有按照预计的一样初初始化一个1xd_model的矩阵,
            #而是有了一个跳跃,只初始化了--半即1xd_model/2的矩阵。为什么是一半呢,其实这里并不是真正意义上的初始化了一半的矩阵,
            #我们可以把它看作是初始化了两次,而每次初始化的变换矩阵会做不同的处理,第一次初始化的变换矩阵分布在正弦波上,第二次余弦
            #并把这两个矩阵分别填充在位置编码矩阵的偶数和奇数位置上,组成最终的位置编码矩阵.
            # 定义一个变化矩阵div_term, 跳跃式的初始化
            div_term = torch.exp(torch.arange(0, d_model, 2) * -(math.log(10000.0) / d_model))
            
            # 将前面定义的变化矩阵进行奇数, 偶数的分别赋值
            pe[:, 0::2] = torch.sin(position * div_term)
            pe[:, 1::2] = torch.cos(position * div_term)
            
            # 将二维张量扩充成三维张量
            pe = pe.unsqueeze(0)
            
            # 将位置编码矩阵注册成模型的buffer, 这个buffer不是模型中的参数, 不跟随优化器同步更新
            # 注册成buffer后我们就可以在模型保存后重新加载的时候, 将这个位置编码器和模型参数一同加载进来
            self.register_buffer('pe', pe)
        
        def forward(self, x):
            # x: 代表文本序列的词嵌入表示
            # 首先明确pe的编码太长了, 将第二个维度, 也就是max_len对应的那个维度缩小成x的句子长度同等的长度
            x = x + Variable(self.pe[:, :x.size(1)], requires_grad=False)
            return self.dropout(x)
    
    
    d_model = 512
    dropout = 0.1
    max_len = 60
    
    # x = embr
    # pe = PositionalEncoding(d_model, dropout, max_len)
    # pe_result = pe(x)
    # print(pe_result)
    # print(pe_result.shape)
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28
    • 29
    • 30
    • 31
    • 32
    • 33
    • 34
    • 35
    • 36
    • 37
    • 38
    • 39
    • 40
    • 41
    • 42
    • 43
    • 44
    • 45
    • 46
    • 47
    • 48
    • 49
    • 50
    • 51
    • 52
    • 53
    • 54
    • 55

    3.2 绘制词汇向量中曲线分布

    #第一步设置一个画布
    plt.figure(figsize=(15, 5))
    
    #实例化PositionalEncoding类对象, 词嵌入维度给20, 置零比率设置为0
    pe = PositionalEncoding(20, 0)
    
    #向pe中传入一个全零初始化的x, 相当于展示pe
    y = pe(Variable(torch.zeros(1, 100, 20)))
    
    plt.plot(np.arange(100), y[0, :, 4:8].data.numpy())
    
    plt.legend(["dim %d"%p for p in [4, 5, 6, 7]])
    
    
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14

    在这里插入图片描述

    4.编码器部分实现

    4.1掩码张量

    在这里插入图片描述
    在这里插入图片描述

    # print(np.triu([[1, 2, 3], [4, 5, 6], [7, 8, 9], [10, 11, 12]], k=-1))
    # print(np.triu([[1, 2, 3], [4, 5, 6], [7, 8, 9], [10, 11, 12]], k=0))
    # print(np.triu([[1, 2, 3], [4, 5, 6], [7, 8, 9], [10, 11, 12]], k=1))
    
    • 1
    • 2
    • 3

    在这里插入图片描述
    ·输出效果分析:
    通过观察可视化方阵,黄色是1的部分,这里代表被遮掩,紫色代表没有被遮掩的信息,横坐标代表目标词汇的位置,纵坐标代表可查看的位置;
    我们看到,在0的位置我们一看望过去都是黄色的都被遮住了,1的位置一眼望过去还是黄色,说明第一次词还没有产生,从第二个位置看过去,就能看到位置1的词,其他位置看不到,以此类推.

    4.2 注意力机制

    在这里插入图片描述
    在这里插入图片描述

    
    def attention(query, key, value, mask=None, dropout=None):
        # query, key, value: 代表注意力的三个输入张量
        # mask: 掩码张量
        # dropout: 传入的Dropout实例化对象
        # 首先将query的最后一个维度提取出来, 代表的是词嵌入的维度
        d_k = query.size(-1)
        
        # 按照注意力计算公式, 将query和key的转置进行矩阵乘法, 然后除以缩放稀疏
        scores = torch.matmul(query, key.transpose(-2, -1)) / math.sqrt(d_k)
        
        # 判断是否使用掩码张量
        if mask is not None:
            # 利用masked_fill方法, 将掩码张量和0进行位置的意义比较, 如果等于0, 替换成一个非常小的数值
            scores = scores.masked_fill(mask == 0, -1e9)
        
        # 对scores的最后一个维度上进行softmax操作
        p_attn = F.softmax(scores, dim=-1)
        
        # 判断是否使用dropout
        if dropout is not None:
            p_attn = dropout(p_attn)
        
        # 最后一步完成p_attn和value张量的乘法, 并返回query注意力表示
        return torch.matmul(p_attn, value), p_attn
    
    
    # query = key = value = pe_result
    # mask = Variable(torch.zeros(2, 4, 4))
    # attn, p_attn = attention(query, key, value, mask=mask)
    # print('attn:', attn)
    # print(attn.shape)
    # print('p_attn:', p_attn)
    # print(p_attn.shape)
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28
    • 29
    • 30
    • 31
    • 32
    • 33
    • 34

    4.3 多头注意力

    什么是多头注意力机制

    从多头注意力的结构图中,貌似这个所谓的多个头就是指多组线性变换层,其实并不是,我只有使用了一组线性变化层,即三个变换张量对Q,K,V分别进行线性变换,这些变换不会改变原有张量的尺寸,因此每个变换矩阵都是方阵,得到输出结果后,多头的作用才开始显现,每个头开始从词义层面分割输出的张量,也就是每个头都想获得一组Q,K,v进行注意力机制的计算,但是句子中的每个词的表示只获得一部分,也就是只分割了最后一维的词嵌入向量.这就是所谓的多头,将每个头的获得的输入送到注意力机制中,就形成多头注意力机制.

    结构图

    在这里插入图片描述

    作用

    这种结构设计能让每个注意力机制去优化每个词汇的不同特征部分,从而均衡同一种注意力机制可能产生的偏差,让词义拥有来自更多元的表达,实验表明可以从而提升模型效果.

    # 实现克隆函数, 因为在多头注意力机制下, 要用到多个结构相同的线性层
    # 需要使用clone函数将他们一同初始化到一个网络层列表对象中
    def clones(module, N):
        # module: 代表要克隆的目标网络层
        # N: 将module克隆几个
        return nn.ModuleList([copy.deepcopy(module) for _ in range(N)])
    
    
    # 实现多头注意力机制的类
    class MultiHeadedAttention(nn.Module):
        def __init__(self, head, embedding_dim, dropout=0.1):
            # head: 代表几个头的参数
            # embedding_dim: 代表词嵌入的维度
            # dropout: 进行Dropout操作时, 置零的比率
            super(MultiHeadedAttention, self).__init__()
            
            # 要确认一个事实: 多头的数量head需要整除词嵌入的维度embedding_dim
            assert embedding_dim % head == 0
            
            # 得到每个头获得的词向量的维度
            self.d_k = embedding_dim // head
            
            self.head = head
            self.embedding_dim = embedding_dim
            
            # 获得线性层, 要获得4个, 分别是Q,K,V以及最终的输出线性层
            self.linears = clones(nn.Linear(embedding_dim, embedding_dim), 4)
            
            # 初始化注意力张量
            self.attn = None
            
            # 初始化dropout对象
            self.dropout = nn.Dropout(p=dropout)
            
        
        def forward(self, query, key, value, mask=None):
            # query, key, value是注意力机制的三个输入张量, mask代表掩码张量
            # 首先判断是否使用掩码张量
            if mask is not None:
                # 使用unsqueeze将掩码张量进行维度扩充, 代表多头中的第n个头
                mask = mask.unsqueeze(0)
            
            # 得到batch_size
            batch_size= query.size(0)
            
            # 首先使用zip将网络层和输入数据连接在一起, 模型的输出利用view和transpose进行维度和形状的改变
            query, key, value = \
               [model(x).view(batch_size, -1, self.head, self.d_k).transpose(1, 2)   
                for model, x in zip(self.linears, (query, key, value))]
            
            # 将每个头的输出传入到注意力层
            x, self.attn = attention(query, key, value, mask=mask, dropout=self.dropout)
            
            # 得到每个头的计算结果是4维张量, 需要进行形状的转换
            # 前面已经将1,2两个维度进行过转置, 在这里要重新转置回来
            # 注意: 经历了transpose()方法后, 必须要使用contiguous方法, 不然无法使用view()方法
            x = x.transpose(1, 2).contiguous().view(batch_size, -1, self.head * self.d_k)
            
            # 最后将x输入线性层列表中的最后一个线性层中进行处理, 得到最终的多头注意力结构输出
            return self.linears[-1](x)
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28
    • 29
    • 30
    • 31
    • 32
    • 33
    • 34
    • 35
    • 36
    • 37
    • 38
    • 39
    • 40
    • 41
    • 42
    • 43
    • 44
    • 45
    • 46
    • 47
    • 48
    • 49
    • 50
    • 51
    • 52
    • 53
    • 54
    • 55
    • 56
    • 57
    • 58
    • 59
    • 60

    4.4 前馈全连接层

    在这里插入图片描述

    # 构建前馈全连接网络类
    class PositionwiseFeedForward(nn.Module):
        def __init__(self, d_model, d_ff, dropout=0.1):
            # d_model: 代表词嵌入的维度, 同时也是两个线性层的输入维度和输出维度
            # d_ff: 代表第一个线性层的输出维度, 和第二个线性层的输入维度
            # dropout: 经过Dropout层处理时, 随机置零的比率
            super(PositionwiseFeedForward, self).__init__()
            
            # 定义两层全连接的线性层
            self.w1 = nn.Linear(d_model, d_ff)
            self.w2 = nn.Linear(d_ff, d_model)
            self.dropout = nn.Dropout(p=dropout)
        
        def forward(self, x):
            # x: 代表来自上一层的输出
            # 首先将x送入第一个线性层网络, 然后经历relu函数的激活, 再经历dropout层的处理
            # 最后送入第二个线性层
            return self.w2(self.dropout(F.relu(self.w1(x))))
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18

    4.5 规范化层

    在这里插入图片描述

    
    # 构建规范化层的类
    class LayerNorm(nn.Module):
        def __init__(self, features, eps=1e-6):
            # features: 代表词嵌入的维度
            # eps: 一个足够小的正数, 用来在规范化计算公式的分母中, 防止除零操作
            super(LayerNorm, self).__init__()
            
            # 初始化两个参数张量a2, b2,用于对结果做规范化操作计算
            # 将其用nn.Parameter进行封装, 代表他们也是模型中的参数
            self.a2 = nn.Parameter(torch.ones(features))
            self.b2 = nn.Parameter(torch.zeros(features))
            
            self.eps = eps
            
        def forward(self, x):
            # x: 代表上一层网络的输出
            # 首先对x进行最后一个维度上的求均值操作, 同时操持输出维度和输入维度一致
            mean = x.mean(-1, keepdim=True)
            # 接着对x进行字后一个维度上的求标准差的操作, 同时保持输出维度和输入维度一致
            std = x.std(-1, keepdim=True)
            # 按照规范化公式进行计算并返回
            return self.a2 * (x - mean) / (std + self.eps) + self.b2
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23

    4.6 子层连接结构

    在这里插入图片描述

    # 构建子层连接结构的类
    class SublayerConnection(nn.Module):
        def __init__(self, size, dropout=0.1):
            # size: 代表词嵌入的维度
            # dropout: 进行Dropout操作的置零比率
            super(SublayerConnection, self).__init__()
            # 实例化一个规范化层的对象
            self.norm = LayerNorm(size)
            # 实例化一个dropout对象
            self.dropout = nn.Dropout(p=dropout)
            self.size = size
        
        def forward(self, x, sublayer):
            # x: 代表上一层传入的张量
            # sublayer: 该子层连接中子层函数
            # 首先将x进行规范化, 然后送入子层函数中处理, 处理结果进入dropout层, 最后进行残差连接
            return x + self.dropout(sublayer(self.norm(x)))
    
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18

    4.7 编码器层

    在这里插入图片描述

    # 构建编码器层的类
    class EncoderLayer(nn.Module):
        def __init__(self, size, self_attn, feed_forward, dropout):
            # size: 代表词嵌入的维度
            # self_attn: 代表传入的多头自注意力子层的实例化对象
            # feed_forward: 代表前馈全连接层实例化对象
            # dropout: 进行dropout操作时的置零比率
            super(EncoderLayer, self).__init__()
            
            # 将两个实例化对象和参数传入类中
            self.self_attn = self_attn
            self.feed_forward = feed_forward
            self.size = size
            
            # 编码器层中有2个子层连接结构, 使用clones函数进行操作
            self.sublayer = clones(SublayerConnection(size, dropout), 2)
            
        def forward(self, x, mask):
            # x: 代表上一层的传入张量
            # mask: 代表掩码张量
            # 首先让x经过第一个子层连接结构,内部包含多头自注意力机制子层
            # 再让张量经过第二个子层连接结构, 其中包含前馈全连接网络
            x = self.sublayer[0](x, lambda x: self.self_attn(x, x, x, mask))
            return self.sublayer[1](x, self.feed_forward)
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24

    4.8 编码器

    在这里插入图片描述

    # 构建编码器类Encoder
    class Encoder(nn.Module):
        def __init__(self, layer, N):
            # layer: 代表编码器层
            # N: 代表编码器中有几个layer
            super(Encoder, self).__init__()
            # 首先使用clones函数克隆N个编码器层放置在self.layers中
            self.layers = clones(layer, N)
            # 初始化一个规范化层, 作用在编码器的最后面
            self.norm = LayerNorm(layer.size)
        
        def forward(self, x, mask):
            # x: 代表上一层输出的张量
            # mask: 代表掩码张量
            # 让x依次经历N个编码器层的处理, 最后再经过规范化层就可以输出了
            for layer in self.layers:
                x = layer(x, mask)
            return self.norm(x)
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18

    5. 解码器部分

    解码器层

    在这里插入图片描述

    # 构建解码器层类
    class DecoderLayer(nn.Module):
        def __init__(self, size, self_attn, src_attn, feed_forward, dropout):
            # size: 代表词嵌入的维度
            # self_attn: 代表多头自注意力机制的对象
            # src_attn: 代表常规的注意力机制的对象
            # feed_forward: 代表前馈全连接层的对象
            # dropout: 代表Dropout的置零比率
            super(DecoderLayer, self).__init__()
            
            # 将参数传入类中
            self.size = size
            self.self_attn = self_attn
            self.src_attn = src_attn
            self.feed_forward = feed_forward
            self.dropout = dropout
            
            # 按照解码器层的结构图, 使用clones函数克隆3个子层连接对象
            self.sublayer = clones(SublayerConnection(size, dropout), 3)
        
        def forward(self, x, memory, source_mask, target_mask):
            # x: 代表上一层输入的张量
            # memory: 代表编码器的语义存储张量
            # source_mask: 源数据的掩码张量
            # target_mask: 目标数据的掩码张量
            m = memory
            
            # 第一步让x经历第一个子层, 多头自注意力机制的子层
            # 采用target_mask, 为了将解码时未来的信息进行遮掩, 比如模型解码第二个字符, 只能看见第一个字符信息
            x = self.sublayer[0](x, lambda x: self.self_attn(x, x, x, target_mask))
            
            # 第二步让x经历第二个子层, 常规的注意力机制的子层, Q!=K=V
            # 采用source_mask, 为了遮掩掉对结果信息无用的数据
            x = self.sublayer[1](x, lambda x: self.src_attn(x, m, m, source_mask))
            
            # 第三步让x经历第三个子层, 前馈全连接层
            return self.sublayer[2](x, self.feed_forward)
    
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28
    • 29
    • 30
    • 31
    • 32
    • 33
    • 34
    • 35
    • 36
    • 37
    • 38

    解码器

    在这里插入图片描述

    
    # 构建解码器类
    class Decoder(nn.Module):
        def __init__(self, layer, N):
            # layer: 代表解码器层的对象
            # N: 代表将layer进行几层的拷贝
            super(Decoder, self).__init__()
            # 利用clones函数克隆N个layer
            self.layers = clones(layer, N)
            # 实例化一个规范化层
            self.norm = LayerNorm(layer.size)
        
        def forward(self, x, memory, source_mask, target_mask):
            # x: 代表目标数据的嵌入表示,
            # memory: 代表编码器的输出张量
            # source_mask: 源数据的掩码张量
            # target_mask: 目标数据的掩码张量
            # 要将x依次经历所有的编码器层处理, 最后通过规范化层
            for layer in self.layers:
                x = layer(x, memory, source_mask, target_mask)
            return self.norm(x)
    
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22

    6.输出部分实现

    在这里插入图片描述

    # 构建Generator类
    import torch.nn.functional as F
    
    class Generator(nn.Module):
        def __init__(self, d_model, vocab_size):
            # d_model: 代表词嵌入的维度
            # vocab_size: 代表词表的总大小
            super(Generator, self).__init__()
            # 定义一个线性层, 作用是完成网络输出维度的变换
            self.project = nn.Linear(d_model, vocab_size)
        
        def forward(self, x):
            # x: 代表上一层的输出张量
            # 首先将x送入线性层中, 让其经历softmax的处理
            return F.log_softmax(self.project(x), dim=-1)
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15

    7.模型构建

    在这里插入图片描述

    # 构建编码器-解码器结构类
    class EncoderDecoder(nn.Module):
        def __init__(self, encoder, decoder, source_embed, target_embed, generator):
            # encoder: 代表编码器对象
            # decoder: 代表解码器对象
            # source_embed: 代表源数据的嵌入函数
            # target_embed: 代表目标数据的嵌入函数
            # generator: 代表输出部分类别生成器对象
            super(EncoderDecoder, self).__init__()
            self.encoder = encoder
            self.decoder = decoder
            self.src_embed = source_embed
            self.tgt_embed = target_embed
            self.generator = generator
            
        def forward(self, source, target, source_mask, target_mask):
            # source: 代表源数据
            # target: 代表目标数据
            # source_mask: 代表源数据的掩码张量
            # target_mask: 代表目标数据的掩码张量
            return self.decode(self.encode(source, source_mask), source_mask,
                               target, target_mask)
        
        def encode(self, source, source_mask):
            return self.encoder(self.src_embed(source), source_mask)
        
        def decode(self, memory, source_mask, target, target_mask):
            # memory: 代表经历编码器编码后的输出张量
            return self.decoder(self.tgt_embed(target), memory, source_mask, target_mask)
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28
    • 29

    8.model

    def make_model(source_vocab, target_vocab, N=6, d_model=512, d_ff=2048, head=8, dropout=0.1):
        # source_vocab: 代表源数据的词汇总数
        # target_vocab: 代表目标数据的词汇总数
        # N: 代表编码器和解码器堆叠的层数
        # d_model: 代表词嵌入的维度
        # d_ff: 代表前馈全连接层中变换矩阵的维度
        # head: 多头注意力机制中的头数
        # dropout: 指置零的比率
        c = copy.deepcopy
        
        # 实例化一个多头注意力的类
        attn = MultiHeadedAttention(head, d_model)
        
        # 实例化一个前馈全连接层的网络对象
        ff = PositionwiseFeedForward(d_model, d_ff, dropout)
        
        # 实例化一个位置编码器
        position = PositionalEncoding(d_model, dropout)
        
        # 实例化模型model,利用的是EncoderDecoder类
        # 编码器的结构里面有2个子层, attention层和前馈全连接层
        # 解码器的结构中有3个子层, 两个attention层和前馈全连接层
        model = EncoderDecoder(
                Encoder(EncoderLayer(d_model, c(attn), c(ff), dropout), N),
                Decoder(DecoderLayer(d_model, c(attn), c(attn), c(ff), dropout), N),
                nn.Sequential(Embeddings(d_model, source_vocab), c(position)),
                nn.Sequential(Embeddings(d_model, target_vocab), c(position)),
                Generator(d_model, target_vocab))
        
        # 初始化整个模型中的参数, 判断参数的维度大于1, 将矩阵初始化成一个服从均匀分布的矩阵
        for p in model.parameters():
            if p.dim() > 1:
                nn.init.xavier_uniform(p)
        
        return model
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28
    • 29
    • 30
    • 31
    • 32
    • 33
    • 34
    • 35

    9.基本测试运行

    在这里插入图片描述

    总结

    提示:这里对文章进行总结:

    例如:以上就是今天要写的内容,本文仅仅简单介绍了transformer的使用.

  • 相关阅读:
    Git教程——git使用
    算法题目中图和树的存储
    11. 使用 HTTP PUT, PATCH 以及 MERGE 请求消费 SAP ABAP OData 服务修改操作的实现及其区别
    gin通过文件流提供流式下载文件,golang
    三维重建之PIFuHD
    STI比赛任务一:【智能问答baseline】
    基于像素预测和位平面压缩的加密图像可逆数据隐藏附matlab代码(论文复现)
    【Linux--进程间通信】
    29-移动端开发
    day06 51单片机-点阵led
  • 原文地址:https://blog.csdn.net/weixin_44199723/article/details/126578329