一、传统RNN存在的问题
1.序列前序太长,每个xi要记住前面的特征,而且一直在学,没有忘记,可能特征不能学的太好
2.串行,层越多越慢,难以堆叠很多层;
3.只能看到过去,不能看到未来
搞个双向的,然后把两个方向学到的特征拼接,那么对于xi影响最大的是xi-1和xi+1吗?是相邻的两个吗,不一定,所以也不太合理
二、重大事件
1.2017年 attention is all your need 出现,RNN退出历史舞台
2.2018 年 transformer 更空出世,bert 和GPT1
transformer究竟是干什么的?通俗上说就是:1是平淡无奇的特征,2是特征鲜明的特征,transformer的功能就是把1输入进去,然后输出2.
没有transformer之前的算法 训练模型就是训练参数,更新参数,但是transformer不仅更新参数,还可以根据上下文信息更新数据,transformer站的高看的远,考虑全文
三. self-attention
假设x1,x2是两个向量,它们两个的关系就是算内积 ,x1.x2=0表示没关系,x1.x2=表示关系特别大。
transformer中 不是简单算内积,而是构建三个向量参数 q,k,v,q相当于问,k相当于答,比如词 thing ,mathines编码后的特征是x1,x2,则x1和x1的关系是 q1.k1,x1和x2的关系是 q1.k2,x2和x2的关系是 q2.k2,x2于x1的关系是 q2.k1,怎么得到q,k,v呢?
q,k,v,分别需要设计一个wx+b(w,b都是先初始化,再通过训练更新)的矩阵,通过和向量矩阵x1x2 全连接 计算得到q ,k,v, 参数值是通过训练得到的。transformer本质就是提特征。
value 表示自身特征,表示对自身的认知。也是需要学习的,输出attention value
v=qk,得到v1,v2,v3,v4后,更新特征向量
向量维度越大,得到内积就越大,这是不合适的,需要排除特征维度的影响。所以要归一化,将值变成概率,dk是特征的维度。
比如想得到500维的特征向量,那就可以分5个头,也就是5组q,k,v,最后拼接,就可以得到更丰富的特征。
此例子中,我打你 ,你打我,两句话中的词 的特征是不变的,也就是说transformer对位置特征不敏感,所以需要加入位置信息
加入one-hot的位置编码,特征与对应位置的编码做加法就可以了
可以堆叠多层self-attention吗?可以模仿15年出世的resnet残差结构来实现,因为每一次的self-attention的输入和输出维度都一样,所以可以堆叠多层。
self-attention相当于encoder层,会得到每一个词的特征,那输出就是要利用这个学出来的特征去做事,比如翻译,就是decoder层了。左边的encoder部分每个词都通过self-attention学到了特征,右边decoder部分每一个词要提供q, encoder提供k,v ,q1k1=v1,q1k2=v2,q1k3=v3,q1k4=v4, 这就是cross-attention,decoder需要self-attention吗?要,只不过是只需要算后面和前面的关系,即算q2和q1的关系,不需要算q1和q2的关系,因为算去q1的时候,还没有q2呢,只能从后往前看,不能从前往后看,所以加入MASK机制遮挡后面看不到的
input: 输入一个词
input Embedding :词嵌入,即把词变成一个特征向量
norm:BN,批处理
add:残差链接
feed forward: 全连接 linear 也是全连接
注意:decoder部分 既有self-attention,又有cross-attention
多模态就是要学习各种特征,实际上就是cross- attention
bert : 自监督 ,随机遮挡15%的词,然后预测这些词