FlashAttention 的速度优化原理是怎样的?
从 FlashAttention 到 PagedAttention, 如何进一步优化 Attention 性能
FlashAttention图解(如何加速Attention)
FlashAttention开源代码
Transformer Block运算量解析
在self-attention模块中,主要包含全连接层(通过矩阵乘法实现)、softmax(计算注意力权重),以及根据注意力权重的加权求和(计算注意力的输出结果)。其中,全连接层和根据注意力权重的加权求和其实都是通过矩阵乘法实现的,所以分块计算可以通过矩阵的分块乘法来实现。由于softmax的分母部分需要计算全局元素的求和,分块之后只能计算局部的和,导致softmax的分块计算变得复杂。
标准版softmax
s
o
f
t
m
a
x
(
x
)
=
e
x
i
∑
e
x
j
softmax(x)=\frac{e^{x_i} }{\sum e^{x_j}}
softmax(x)=∑exjexi
稳定版softmax
s
o
f
t
m
a
x
(
x
)
=
e
x
i
−
m
a
x
(
x
)
∑
e
x
j
−
m
a
x
(
x
)
softmax(x)=\frac{e^{x_i - max(x)} }{\sum e^{x_j - max(x)}}
softmax(x)=∑exj−max(x)exi−max(x)
其中,
m
a
x
(
x
)
max(x)
max(x)表示
x
x
x 中的最大值。
分块计算softmax
关于第 6 步的公式是怎么得到的,我们把第 6 步的公式拆解为两部分,现在我们计算到了第二块数据 x ( 2 ) x^{(2)} x(2),所以我们此时的全局求和结果由两部分组成,第一部分是由 x ( 1 ) x^{(1)} x(1) 数据块产生的求和结果,第二部分是由 x ( 2 ) x^{(2)} x(2) 数据块产生的求和结果,但是 x ( 1 ) x^{(1)} x(1) 和 x ( 2 ) x^{(2)} x(2) 计算的求和结果分别使用的是各自局部的最大值 m a x ( x ) max(x) max(x) 进行计算的,所以要将 x ( 1 ) x^{(1)} x(1) 和 x ( 2 ) x^{(2)} x(2) 的局部求和结果更新为当前阶段的全局求和结果。
以更新
x
(
2
)
x^{(2)}
x(2) 的求和结果为例,在计算
x
(
2
)
x^{(2)}
x(2) 的softmax的过程中,分子分母同时除以了
x
(
2
)
x^{(2)}
x(2) 的局部最大值的
e
m
(
x
(
2
)
)
e^{m(x^{(2)})}
em(x(2)),所以现在要对分母部分
x
(
2
)
x^{(2)}
x(2) 的局部求和结果进行还原,先乘以局部最大值的
e
m
(
x
(
2
)
)
e^{m(x^{(2)})}
em(x(2)),然后在除以全局的最大值的
e
m
m
a
x
n
e
w
e^{m_{max}^{new}}
emmaxnew,公式表示如下:
l
(
x
(
2
)
)
n
e
w
=
∑
e
x
(
2
)
−
m
(
x
(
2
)
)
∗
e
m
(
x
(
2
)
)
e
m
m
a
x
n
e
w
=
∑
e
x
(
2
)
−
m
m
a
x
n
e
w
=
e
m
(
x
(
2
)
)
−
m
m
a
x
n
e
w
∗
l
(
x
(
2
)
)
l(x^{(2)})_{new} = \frac {\sum {e^{x^{(2)} - m(x^{(2)})}} * e^{m(x^{(2)})}}{e^{m_{max}^{new}}} = \sum {e^{x^{(2)} - m_{max}^{new}}} = e^{m(x^{(2)}) - m_{max}^{new}}*l(x^{(2)})
l(x(2))new=emmaxnew∑ex(2)−m(x(2))∗em(x(2))=∑ex(2)−mmaxnew=em(x(2))−mmaxnew∗l(x(2))
同理,也可以使用迭代到此时的全局的最大值的
e
m
m
a
x
n
e
w
e^{m_{max}^{new}}
emmaxnew ,更新数据块 $x^{(1)} 的局部求和结果为迭代到此时的全局求和结果 $
l
(
x
(
1
)
)
n
e
w
l(x^{(1)})_{new}
l(x(1))new,表示如下:
l
(
x
(
1
)
)
n
e
w
=
∑
e
x
(
1
)
−
m
(
x
(
1
)
)
∗
e
m
(
x
(
1
)
)
e
m
m
a
x
n
e
w
=
∑
e
x
(
1
)
−
m
m
a
x
n
e
w
=
e
m
(
x
(
1
)
)
−
m
m
a
x
n
e
w
∗
l
(
x
(
1
)
)
l(x^{(1)})_{new} = \frac {\sum {e^{x^{(1)} - m(x^{(1)})}} * e^{m(x^{(1)})}}{e^{m_{max}^{new}}} = \sum {e^{x^{(1)} - m_{max}^{new}}} = e^{m(x^{(1)}) - m_{max}^{new}}*l(x^{(1)})
l(x(1))new=emmaxnew∑ex(1)−m(x(1))∗em(x(1))=∑ex(1)−mmaxnew=em(x(1))−mmaxnew∗l(x(1))
所以,迭代到此时的全局求和结果就是
l
a
l
l
n
e
w
=
l
(
x
(
1
)
)
n
e
w
+
l
(
x
(
2
)
)
n
e
w
l_{all}^{new} = l(x^{(1)})_{new} + l(x^{(2)})_{new}
lallnew=l(x(1))new+l(x(2))new ,表示如下:
l
a
l
l
n
e
w
=
l
(
x
(
1
)
)
n
e
w
+
l
(
x
(
2
)
)
n
e
w
=
e
m
(
x
(
1
)
)
−
m
m
a
x
n
e
w
∗
l
(
x
(
1
)
)
+
e
m
(
x
(
2
)
)
−
m
m
a
x
n
e
w
∗
l
(
x
(
2
)
)
l_{all}^{new} = l(x^{(1)})_{new} + l(x^{(2)})_{new} = e^{m(x^{(1)}) - m_{max}^{new}}*l(x^{(1)}) + e^{m(x^{(2)}) - m_{max}^{new}}*l(x^{(2)})
lallnew=l(x(1))new+l(x(2))new=em(x(1))−mmaxnew∗l(x(1))+em(x(2))−mmaxnew∗l(x(2))
因为在执行完数据块
x
(
1
)
x^{(1)}
x(1) 之后,我们保存了
m
m
a
x
=
m
(
x
(
1
)
)
m_{max} = m(x^{(1)})
mmax=m(x(1)) ,
l
a
l
l
=
l
(
x
(
1
)
)
l_{all} = l(x^{(1)})
lall=l(x(1)) ,替换
m
(
x
(
1
)
)
m(x^{(1)})
m(x(1)) 和
l
(
x
(
1
)
)
l(x^{(1)})
l(x(1)) ,所以上式就等价为:
l
a
l
l
n
e
w
=
l
(
x
(
1
)
)
n
e
w
+
l
(
x
(
2
)
)
n
e
w
=
e
m
m
a
x
−
m
m
a
x
n
e
w
∗
l
a
l
l
+
e
m
(
x
(
2
)
)
−
m
m
a
x
n
e
w
∗
l
(
x
(
2
)
)
l_{all}^{new} = l(x^{(1)})_{new} + l(x^{(2)})_{new} = e^{m_{max} - m_{max}^{new}}*l_{all} + e^{m(x^{(2)}) - m_{max}^{new}}*l(x^{(2)})
lallnew=l(x(1))new+l(x(2))new=emmax−mmaxnew∗lall+em(x(2))−mmaxnew∗l(x(2))
上面这个公式,也就是上面第 6 步得到的公式。现在我们得到的
m
a
x
m
a
x
n
e
w
max_{max}^{new}
maxmaxnew 就是迭代到当前数据块的全局最大值,
l
a
l
l
n
e
w
l_{all}^{new}
lallnew 就是迭代到当前数据块softmax分母部分的全局求和结果。
现在softmax的分母已经被更新成了全局的结果,现在就要把分子也更新成全局的结果就行了。分子的更新结果很简单,还是以更新
x
(
2
)
x^{(2)}
x(2) 的分子为例,在计算
x
(
2
)
x^{(2)}
x(2) 的softmax的过程中,分子分母同时除以了
x
(
2
)
x^{(2)}
x(2) 的局部最大值的
e
m
(
x
(
2
)
)
e^{m(x^{(2)})}
em(x(2)),所以现在要对分子的结果进行还原,先乘以局部最大值的
e
m
(
x
(
2
)
)
e^{m(x^{(2)})}
em(x(2)),然后在除以全局的最大值的
e
m
m
a
x
n
e
w
e^{m_{max}^{new}}
emmaxnew,公式表示如下:
e
x
(
2
)
−
m
(
x
(
2
)
)
∗
e
m
(
x
(
2
)
)
e
m
m
a
x
n
e
w
=
f
(
x
(
2
)
)
∗
e
m
(
x
(
2
)
)
−
m
m
a
x
n
e
w
\frac {e^{x^{(2)} - m(x^{(2)})} * e^{m(x^{{(2)}})}}{e^{m_{max}^{new}}} = f(x^{(2)})*e^{m(x^{(2)})-m_{max}^{new}}
emmaxnewex(2)−m(x(2))∗em(x(2))=f(x(2))∗em(x(2))−mmaxnew
同理,更新后
x
(
1
)
x^{(1)}
x(1) 的分子如下:
e
x
(
1
)
−
m
(
x
(
1
)
)
∗
e
m
(
x
(
1
)
)
e
m
m
a
x
n
e
w
=
f
(
x
(
1
)
)
∗
e
m
(
x
(
1
)
)
−
m
m
a
x
n
e
w
\frac {e^{x^{(1)} - m(x^{(1)})} * e^{m(x^{{(1)}})}}{e^{m_{max}^{new}}} = f(x^{(1)})*e^{m(x^{(1)})-m_{max}^{new}}
emmaxnewex(1)−m(x(1))∗em(x(1))=f(x(1))∗em(x(1))−mmaxnew
现在就可以计算
x
(
1
)
x^{(1)}
x(1) 和
x
(
2
)
x^{(2)}
x(2) 迭代到此时的“全局”softmax了。
s
o
f
t
m
a
x
(
x
(
1
)
)
n
e
w
=
f
(
x
(
1
)
)
∗
e
m
(
x
(
1
)
)
−
m
m
a
x
n
e
w
l
a
l
l
n
e
w
=
s
o
f
t
m
a
x
(
x
(
1
)
)
∗
l
(
x
(
1
)
)
∗
e
m
(
x
(
1
)
)
−
m
m
a
x
n
e
w
l
a
l
l
n
e
w
softmax(x^{(1)})_{new} = \frac{f(x^{(1)})*e^{m(x^{(1)})-m_{max}^{new}}}{l_{all}^{new}} = \frac{softmax(x^{(1)})*l(x^{(1)})*e^{m(x^{(1)})-m_{max}^{new}}}{l_{all}^{new}}
softmax(x(1))new=lallnewf(x(1))∗em(x(1))−mmaxnew=lallnewsoftmax(x(1))∗l(x(1))∗em(x(1))−mmaxnew
s
o
f
t
m
a
x
(
x
(
2
)
)
n
e
w
=
f
(
x
(
2
)
)
∗
e
m
(
x
(
2
)
)
−
m
m
a
x
n
e
w
l
a
l
l
n
e
w
=
s
o
f
t
m
a
x
(
x
(
2
)
)
∗
l
(
x
(
2
)
)
∗
e
m
(
x
(
2
)
)
−
m
m
a
x
n
e
w
l
a
l
l
n
e
w
softmax(x^{(2)})_{new} = \frac{f(x^{(2)})*e^{m(x^{(2)})-m_{max}^{new}}}{l_{all}^{new}} = \frac{softmax(x^{(2)})*l(x^{(2)})*e^{m(x^{(2)})-m_{max}^{new}}}{l_{all}^{new}}
softmax(x(2))new=lallnewf(x(2))∗em(x(2))−mmaxnew=lallnewsoftmax(x(2))∗l(x(2))∗em(x(2))−mmaxnew
上面公式中的
s
o
f
t
m
a
x
(
x
(
1
)
)
,
s
o
f
t
m
a
x
(
x
(
2
)
)
,
l
(
x
(
1
)
)
,
l
(
x
(
2
)
)
,
m
(
x
(
1
)
)
,
m
(
x
(
2
)
)
,
m
m
a
x
n
e
w
softmax(x^{(1)}),softmax(x^{(2)}),l(x^{(1)}),l(x^{(2)}),m(x^{(1)}),m(x^{(2)}),m_{max}^{new}
softmax(x(1)),softmax(x(2)),l(x(1)),l(x(2)),m(x(1)),m(x(2)),mmaxnew 等都是已知的中间结果,不用重新计算,也不用重新读取
x
(
1
)
x^{(1)}
x(1) 和
x
(
2
)
x^{(2)}
x(2) 数据块。
将经过数据块
x
(
1
)
x^{(1)}
x(1) 和
x
(
2
)
x^{(2)}
x(2) 计算得到的
m
m
a
x
n
e
w
m_{max}^{new}
mmaxnew 和
l
a
l
l
n
e
w
l_{all}^{new}
lallnew 更新到
m
m
a
x
=
m
m
a
x
n
e
w
m_{max} = m_{max}^{new}
mmax=mmaxnew 和
l
a
l
l
=
l
a
l
l
n
e
w
l_{all} = l_{all}^{new}
lall=lallnew,将数据块
x
(
1
)
x^{(1)}
x(1) 和
x
(
2
)
x^{(2)}
x(2) 的计算结果看做一个整体作为
x
(
1
)
x^{(1)}
x(1),将读取的新数据块
x
(
2
)
x^{(2)}
x(2) 作为上面的
x
(
2
)
x^{(2)}
x(2),继续迭代下去,直到完成所有数据块的计算,这样就得到了全局的softmax结果
import numpy as np
import torch
def softmax(x):
m_x = np.max(x)
f_x = np.exp(x - m_x)
l_x = np.sum(f_x)
soft_x = f_x / l_x
return m_x, f_x, l_x, soft_x
m_x1, f_x1, l_x1, soft_x1 = softmax(np.array([1, 2]))
m_x2, f_x2, l_x2, soft_x2 = softmax(np.array([3, 4]))
m_x_new = np.max([m_x1, m_x2])
l_new_all = np.exp(m_x1 - m_x_new) * l_x1 + np.exp(m_x2 - m_x_new) * l_x2
soft_x1_new = soft_x1 * l_x1 * np.exp(m_x1 - m_x_new) / l_new_all
soft_x2_new = soft_x2 * l_x2 * np.exp(m_x2 - m_x_new) / l_new_all
soft = torch.nn.functional.softmax(torch.Tensor([1, 2, 3, 4]), dim=0)
# [0.0320586 0.08714432] [0.23688282 0.64391426]
print(soft_x1_new, soft_x2_new)
# [0.0320586 0.08714432 0.23688284 0.6439143 ]
print(soft.numpy())