• 子层连接结构


    目录

    1、子层连接结构介绍

    2、子层连接结构

    3、代码实现


    1、子层连接结构介绍

    输入到每个子层以及规范化层的过程中,还使用了残差连接(跳跃连接),因此我们把这一部分整体结构叫子层连接(代表子层及其连接结构),在每个编码器层,都有两个子层,这两个子层加上周围的链接结构就形成了两个子层连接结构。

    2、子层连接结构

    3、代码实现

    1. import numpy as np
    2. from torch.autograd import Variable
    3. import copy
    4. from torch import tensor, softmax
    5. import math
    6. import torch.nn as nn
    7. import torch
    8. # 构建Embedding类来实现文本嵌入层
    9. class Embeddings(nn.Module):
    10. def __init__(self,vocab,d_model):
    11. """
    12. :param vocab: 词表的大小
    13. :param d_model: 词嵌入的维度
    14. """
    15. super(Embeddings,self).__init__()
    16. self.lut = nn.Embedding(vocab,d_model)
    17. self.d_model = d_model
    18. def forward(self,x):
    19. """
    20. :param x: 因为Embedding层是首层,所以代表输入给模型的文本通过词汇映射后的张量
    21. :return:
    22. """
    23. return self.lut(x) * math.sqrt(self.d_model)
    24. class PositionalEncoding(nn.Module):
    25. def __init__(self,d_model,dropout,max_len=5000):
    26. """
    27. :param d_model: 词嵌入的维度
    28. :param dropout: 随机失活,置0比率
    29. :param max_len: 每个句子的最大长度,也就是每个句子中单词的最大个数
    30. """
    31. super(PositionalEncoding,self).__init__()
    32. self.dropout = nn.Dropout(p=dropout)
    33. pe = torch.zeros(max_len,d_model) # 初始化一个位置编码器矩阵,它是一个0矩阵,矩阵的大小是max_len * d_model
    34. position = torch.arange(0,max_len).unsqueeze(1) # 初始一个绝对位置矩阵 max_len * 1
    35. div_term = torch.exp(torch.arange(0,d_model,2)*-(math.log(1000.0)/d_model)) # 定义一个变换矩阵,跳跃式的初始化
    36. # 将前面定义的变换矩阵进行奇数、偶数的分别赋值
    37. pe[:,0::2] = torch.sin(position*div_term)
    38. pe[:,1::2] = torch.cos(position*div_term)
    39. pe = pe.unsqueeze(0) # 将二维矩阵扩展为三维和embedding的输出(一个三维向量)相加
    40. self.register_buffer('pe',pe) # 把pe位置编码矩阵注册成模型的buffer,对模型是有帮助的,但是却不是模型结构中的超参数或者参数,不需要随着优化步骤进行更新的增益对象。注册之后我们就可以在模型保存后重加载时,将这个位置编码与模型参数一同加载进来
    41. def forward(self, x):
    42. """
    43. :param x: 表示文本序列的词嵌入表示
    44. :return: 最后使用self.dropout(x)对对象进行“丢弃”操作,并返回结果
    45. """
    46. x = x + Variable(self.pe[:, :x.size(1)],requires_grad = False) # 不需要梯度求导,而且使用切片操作,因为我们默认的max_len为5000,但是很难一个句子有5000个词汇,所以要根据传递过来的实际单词的个数对创建的位置编码矩阵进行切片操作
    47. return self.dropout(x)
    48. def subsequent_mask(size):
    49. """
    50. :param size: 生成向后遮掩的掩码张量,参数 size 是掩码张量的最后两个维度大小,它的最后两个维度形成一个方阵
    51. :return:
    52. """
    53. attn_shape = (1,size,size) # 定义掩码张量的形状
    54. subsequent_mask = np.triu(np.ones(attn_shape),k = 1).astype('uint8') # 定义一个上三角矩阵,元素为1,再使用其中的数据类型变为无符号8位整形
    55. return torch.from_numpy(1 - subsequent_mask) # 先将numpy 类型转化为 tensor,再做三角的翻转,将位置为 0 的地方变为 1,将位置为 1 的方变为 0
    56. def attention(query, key, value, mask=None, dropout=None):
    57. """
    58. :param query: 三个张量输入
    59. :param key: 三个张量输入
    60. :param value: 三个张量输入
    61. :param mask: 掩码张量
    62. :param dropout: 传入的 dropout 实例化对象
    63. :return:
    64. """
    65. d_model = query.size(-1) # 得到词嵌入的维度,取 query 的最后一维大小
    66. scores = torch.matmul(query,key.transpose(-2,-1)) / math.sqrt(d_model) # 按照注意力公式,将 query 和 key 的转置相乘,这里是将 key 的最后两个维度进行转置,再除以缩放系数,得到注意力得分张量 scores
    67. if mask is not None:
    68. scores = torch.masked_fill(scores,mask == 0,-1e9) # 使用 tensor 的 mask_fill 方法,将掩码张量和 scores 张量中每一个位置进行一一比较,如果掩码张量处为 0 ,则使用 -1e9 替换
    69. # scores = scores.masked_fill(mask == 0,-1e9)
    70. p_attn = softmax(scores, dim = -1) # 对 scores 的最后一维进行 softmax 操作,使用 F.softmax 方法,第一个参数是 softmax 对象,第二个参数是最后一个维度,得到注意力矩阵
    71. print('scores.shape ',scores.shape)
    72. if dropout is not None:
    73. p_attn = dropout(p_attn)
    74. return torch.matmul(p_attn,value),p_attn # 返回注意力表示
    75. class MultiHeadAttention(nn.Module):
    76. def __init__(self, head, embedding_dim , dropout=0.1):
    77. """
    78. :param head: 代表几个头的参数
    79. :param embedding_dim: 词向量维度
    80. :param dropout: 置零比率
    81. """
    82. super(MultiHeadAttention, self).__init__()
    83. assert embedding_dim % head == 0 # 确认一下多头的数量可以整除词嵌入的维度 embedding_dim
    84. self.d_k = embedding_dim // head # 每个头获得词向量的维度
    85. self.head = head
    86. self.linears = nn.ModuleList([copy.deepcopy(nn.Linear(embedding_dim, embedding_dim)) for _ in range(4)]) # 深层拷贝4个线性层,每一个层都是独立的,保证内存地址是独立的,分别是 Q、K、V以及最终的输出线性层
    87. self.attn = None # 初始化注意力张量
    88. self.dropout = nn.Dropout(p=dropout)
    89. def forward(self, query, key, value, mask=None):
    90. """
    91. :param query: 查询query [batch size, sentence length, d_model]
    92. :param key: 待查询key [batch size, sentence length, d_model]
    93. :param value: 待查询value [batch size, sentence length, d_model]
    94. :param mask: 计算相似度得分时的掩码(设置哪些输入不计算到score中)[batch size, 1, sentence length]
    95. :return:
    96. """
    97. if mask is not None:
    98. mask = mask.unsqueeze(1) # 将掩码张量进行维度扩充,代表多头中的第 n 个头
    99. batch_size = query.size(0)
    100. query, key, value = [l(x).view(batch_size, -1, self.head, self.d_k).transpose(1, 2) for l, x in zip(self.linears, (query, key, value))] # 将1、2维度进行调换,目的是让句子长度维度和词向量维度靠近,这样注意力机制才能找到词义与句子之间的关系
    101. # 将每个头传递到注意力层
    102. x, self.attn = attention(query, key, value, mask=mask, dropout=self.dropout)
    103. # 得到每个头的计算结果是 4 维的张量,需要形状的转换
    104. # 前面已经将1,2两个维度进行转置了,所以这里要重新转置回来
    105. # 前面已经经历了transpose,所以要使用contiguous()方法,不然无法使用 view 方法
    106. x = x.transpose(1, 2).contiguous() \
    107. .view(batch_size, -1, self.head * self.d_k)
    108. return self.linears[-1](x) # 在最后一个线性层中进行处理,得到最终的多头注意力结构输出
    109. class LayerNormalization(nn.Module):
    110. def __init__(self, features, eps=1e-6):
    111. """
    112. :param features: 词嵌入的维度
    113. :param eps: 出现在规范化公式的分母中,防止分母为0
    114. """
    115. super(LayerNormalization, self).__init__()
    116. # a 系数的默认值为1,模型的参数
    117. self.a = nn.Parameter(torch.ones(features))
    118. # b 系统的初始值为0,模型的参数
    119. self.b = nn.Parameter(torch.zeros(features))
    120. # 把 eps 传递到类中
    121. self.eps = eps
    122. def forward(self, x):
    123. # 在最后一个维度上求 均值,并且输出维度保持不变
    124. mean = x.mean(-1, keepdim=True)
    125. std = x.std(-1, keepdim=True)
    126. return self.a * (x - mean) / (std + self.eps) + self.b
    1. import torch.nn as nn
    2. class SublayerConnection(nn.Module):
    3. def __init__(self, size, dropout=0.1):
    4. super(SublayerConnection,self).__init__()
    5. # 实例化了一个 LN 对象
    6. self.norm = LayerNormalization(size)
    7. self.dropout = nn.Dropout(p = dropout)
    8. def forward(self,x,sublayer):
    9. """
    10. :param x: 接受上一个层或者子层的输入作为第一个参数
    11. :param sublayer: 该子层连接中的子层函数胡作为第二个参数
    12. :return:
    13. """
    14. "首先对输出进行规范化,然后将结果交给子层处理,之后对子层进行 dropout处理" \
    15. "随机失活一些神经元,来防止过拟合,最后还有一个add操作" \
    16. "因此存在跳跃连接,所以是将输入x与dropout后的子层输出结果相加作为最终的子层连接输出"
    17. return x + self.dropout(sublayer(self.norm(x)))
    18. # 实例化参数
    19. d_model = 512
    20. dropout = 0.1
    21. max_len = 60 # 句子最大长度
    22. #-----------------------------------------词嵌入层
    23. # 输入 x 是 Embedding层输出的张量,形状为 2 * 4 * 512
    24. x = Variable(torch.LongTensor([[100,2,42,508],[491,998,1,221]]))
    25. emb = Embeddings(1000,512) # 嵌入层
    26. embr = emb(x)
    27. #-----------------------------------------位置编码
    28. pe = PositionalEncoding(d_model, dropout,max_len)
    29. pe_result = pe(embr)
    30. x = pe_result
    31. #-----------------------------------------多头注意力
    32. size = d_model = 512
    33. head = 8
    34. dropout = 0.2
    35. mask = torch.zeros(2,4,4)
    36. self_attn = MultiHeadAttention(head,d_model)
    37. sublayer = lambda x:self_attn(x,x,x,mask)
    38. #-----------------------------------------子层连接
    39. sc = SublayerConnection(size,dropout)
    40. sc_result = sc(x,sublayer)
    41. print(sc_result)
    42. print(sc_result.shape)
    scores.shape  torch.Size([2, 8, 4, 4])
    tensor([[[ 4.6194e+00, -1.0555e+01,  1.8985e+00,  ..., -4.5931e+00,
              -6.2920e+00, -2.1740e+01],
             [-2.8843e+01, -6.2767e+00,  1.6427e+01,  ..., -9.3068e+00,
              -3.1705e+01,  4.2651e+01],
             [-3.8404e+01, -5.3660e+00,  2.6868e+01,  ...,  5.8316e+01,
              -1.4166e+01,  4.0424e-03],
             [-7.4723e+00, -0.0000e+00,  5.9630e+00,  ..., -3.1421e+01,
               3.1544e+00, -4.5129e+01]],
    
            [[-0.0000e+00,  1.7151e+00,  1.9417e+01,  ...,  4.3568e+01,
               6.7298e-01, -1.2038e+01],
             [-6.5731e+00,  1.0342e+01, -4.5118e+00,  ..., -6.2668e+00,
              -2.7792e+01, -2.6723e+01],
             [ 2.1822e+00, -5.9824e+00, -3.2065e+00,  ..., -2.2187e-01,
               3.2534e+01, -6.3145e+00],
             [ 4.4255e+00, -1.4299e+01,  3.5308e-01,  ...,  2.6856e+01,
              -1.1513e+01, -1.2965e+00]]], grad_fn=)
    torch.Size([2, 4, 512])
    

  • 相关阅读:
    mybatis入门
    flex布局与float布局
    VScode配置 github 上传代码
    YOLOV1学习笔记
    JTS:02 使用WKB操作数据
    (标签-ios|关键词-stream)
    外汇天眼:随着美元贬值所有世界货币,每个国家都在为自己着想
    第38节——useId——了解
    使用shell脚本在Linux中管理Java应用程序
    Rust 解决循环引用
  • 原文地址:https://blog.csdn.net/qq_51691366/article/details/133772733