核心思想是根据不同的上下文为不同的信息分配不同的注意力权重
效果:
计算:
数学:
self-attention比attention约束条件多了两个:
1. Q=K=V(同源) 也就是说,查询、键、和值都来自于同一个地方,即输入序列和输出序列是相同的,即模型在生成每一个输出时都对自己的所有输入(包括自己)进行加权求和。
2. Q,K,V需要遵循attention的做法
京公网安备 11010502049817号