• transformer的理解


    1.二头注意机制

    • 引入二头
      这里二头注意力机制,其实就是将前面的q,k,v进行细分,分成两个,这样关注的信息就被细化了.
      image.png
      将权重w拆分成wq,1,wq,2两个权重参数,然后将a分别与两个权重参数进行点乘,得到了qq,1和qq,2.
    • 计算 α \alpha α
      这个时候,将q的第一个头与每个k的第一个头进行计算,q的第二个头与k的第二头进行计算,就会得到两个 α \alpha α1, α \alpha α2
    • 计算b
      image.png
      后面的步骤就和单头注意力机制是一样的了,区别在于多头注意力机制引入多个头,信息更细分了,要进行多个计算,结果更准确.

    2.引入位置信息

    注意力机制中存在一个缺陷,就是没有位置信息,所以给注意力机制引入了一个one-hot结构的位置矩阵.
    image.png
    将权重矩阵W拆分成WI和WP,然后与输入值x和位置信息p进行点乘,得到ei和 α \alpha αi

    3.transformer框架可视化理解

    image.png
    以机器翻译为例,输入一个机器学习,首先会经过编码,然后再经过解码,得到你想要的信息,tansformer机制就是一个编码和解码的过程.
    image.png
    输入的信息x会与一个one-hot编码的位置信息相结合,然后输入进一个self-attention多头注意力机制.然后将编码的结果作为解码的输入,将输入放到一个masked多头注意力机制,然后在经过self-attention注意力机制,最后经过一系列的操作得到最后的输出.
    其中在编码的时候,添加了一个Norm层,Norm和Layer的区别就是,Norm是横向的,Layer是纵向的.

    4.通过可视化看看注意力机制的效果

    image.png
    如图所示:
    文中的it是一个代词,在这段文本中,it指代的是animal,所以它与animal的依赖更多一点,他们之间的关系线颜色更深.

    5.单头注意力机制与多头注意力机制的效果对比

    image.png
    上面绿色的是多头注意力机制,下面红色的是单头注意力机制,从图中可以看出,多头注意力机制关注的信息跟多一些.

  • 相关阅读:
    Anaconda安装及入门教程(Windows、Ubuntu)
    小剧场短剧影视小程序源码分享,搭建自己的短剧小程序
    一文带你深入浅出指针和数组习题讲解
    python mean()求平均值
    微服务 - Consul集群化 · 服务注册 · 健康检测 · 服务发现 · 负载均衡
    k8s network-attachment-definition
    Cn2线路异常采用Nginx反代灾备解决方案
    搭建vue3项目并git管理
    OS | 第5章 插叙:进程API
    任务八 分类算法谈论 一
  • 原文地址:https://blog.csdn.net/qq_35653657/article/details/126003416