当前位置: 首页 > news >正文

wordpress怎么看免费主题辽宁好的百度seo公司

wordpress怎么看免费主题,辽宁好的百度seo公司,上海做网站开发的公司,711相卡打印网址Flash Attention 并没有减少 Attention 的计算量,也不影响精度,但是却比标准的Attention运算快 2~4 倍的运行速度,减少了 5~20 倍的内存使用量。究竟是怎么实现的呢? Attention 为什么慢? 此处的“快慢”是相对而言的…

在这里插入图片描述

Flash Attention 并没有减少 Attention 的计算量,也不影响精度,但是却比标准的Attention运算快 2~4 倍的运行速度,减少了 5~20 倍的内存使用量。究竟是怎么实现的呢?

Attention 为什么慢?

此处的“快慢”是相对而言的。严格意义上来说,相比于传统的 RNN,Transformer中的Attention可以并行地处理序列所有位置的信息(RNN 只能串行处理),因此计算效率并不低,但是仍然有可以进一步改进的空间。

众所周知,科学计算通常分为计算密集型 (compute-bound) 和内存密集型 (memory-bound) 两类。其中,计算密集型运算的时间瓶颈主要在于算数计算,比如大型矩阵的相乘等,而内存密集型运算的时间瓶颈主要在于内存的读写时间,比如批归一化、层归一化等等。

  • 时间复杂度:Attention 需要对矩阵 Q 和矩阵 K 的转置做乘法来得到注意力权重矩阵。不考虑 batch 维度,假设矩阵QK 的尺寸都为 ( n , d i m ) (n,dim) (n,dim),那么两个维度为 ( n , d i m ) (n,dim) (n,dim)的矩阵相乘的时间复杂度是序列长度n的平方级 O ( n 2 ) O(n^2) O(n2);在计算完注意力权重矩阵后,还需要对其进行softmax操作,这个算法需要分成三次迭代来执行 O ( n 3 ) O(n^3) O(n3)
  • 空间复杂度:Attention的计算过程需要存储 S = Q K T S=QK^T S=QKT P = s o f t m a x ( S ) P=softmax(S) P=softmax(S)这两个尺寸均为 ( n , n ) (n,n) (n,n)的矩阵

为了对 Attention 的内存读取时间有更清晰的感知,这里简单介绍 GPU 的内存层级。

GPU 的内存可以分为 HBM 和 SRAM 两部分。例如,A100 GPU具有40-80 GB的高带宽内存(上图中的 HBM,即我们平时说的“显存”),带宽为 1.5TB/s,并且108个流式多核处理器都有 192 KB 的片上 SRAM,带宽约为 19 TB/s。片上 SRAM 比 HBM 快一个数量级,但容量要小很多个数量级。

在 GPU 运算之前,数据和模型先从 CPU 的内存(上图中的DRAM)移动到 GPU 的 HBM,然后再从 HBM 移动到 GPU 的 SRAM,CUDA kernel 在 SRAM 中对这些数据进行运算,运算完毕后将运算结果再从 SRAM 移动到 HBM。

所以提高Attention运算效率,需要从降低attention的时间和空间复杂度入手。

时间复杂度

S = Q K T S=QK^T S=QKT的计算过程中,理论上尝试的方法主要可以分为稀疏 (sparse) 估计和低秩 (low-rank) 估计。但是在实际应用中仍然存在一些缺陷:

  • 性能比不上原始 attention。不论是稀疏估计、低秩估计还是其他,这些方法都采用了某种近似算法来估算注意力权重矩阵,难免会丢失信息。目前主流的还是原始的attention
  • 无法减少内存读取的时间消耗。这些方法只能降低 attention 的计算复杂度,但是无法对 attention 运算过程中的空间复杂度等进行控制,无法减少内存读写带来的时间损耗

所以在时间复杂度方向的优化主要在softmax的计算过程中:

softmax ⁡ ( x i ) = e x i ∑ k = 1 N e x k \operatorname{softmax}\left(x_{i} \right)=\frac{e^{x_{i}}}{\sum_{k=1}^{N} e^{x_{k}}} softmax(xi)=k=1Nexkexi

softmax 有个问题,那就是很容易溢出。比如float16的最大值为65504,所以只要 x ≥ 11 x\geq11 x11 的话softmax就溢出了。好在 exp 有这么一个性质,那就是 e x − y = e x e y e^{x-y} = \frac{e^x}{e^y} exy=eyex,根据这个性质,可以在分子分母上同时除以一个数,这样可以将 x x x的范围都缩放到范围内,保证计算 softmax 时的数值稳定性。这个算法可以分成三次迭代来执行:

  1. 遍历所有数,求 x 中的最大值m

for  i ← 1 , N do  m i = max ⁡ ( m i , x i ) \begin{array}{l}\text { for } i \leftarrow 1, N \text { do } \\ \quad m_{i}=\max \left(m_{i}, x_{i}\right)\end{array}  for i1,N do mi=max(mi,xi)
2. 计算 softmax 分母,并根据m对其进行缩放

for  i ← 1 , N do  d i = d i − 1 + e x i − m N \begin{aligned} \text { for } i & \leftarrow 1, N \text { do } \\ d_{i} & =d_{i-1}+e^{x_{i}-m_{N}}\end{aligned}  for idi1,N do =di1+eximN
3. 求对应位置的 softmax

for  i ← 1 , N d o a i = e x i − m N d N \begin{aligned} \text { for } i & \leftarrow 1, N d o \\ a_{i} & =\frac{e^{x_{i}-m_{N}}}{d_{N}}\end{aligned}  for iai1,Ndo=dNeximN

分析以上步骤可以发现,如果是不做任何优化的话,至少要进行和 GPU 进行6次通信(3次写入,3次写出),如果对每一步的for循环进行一些并行切分的的话,还要加上 reduce_sum 和 reduce_max 之类的通信成本。所以2018年 Nvidia 提出了《Online normalizer calculation for softmax》,核心改进是去掉第二步 d i = d i − 1 + e x i − m N d_{i} =d_{i-1}+e^{x_{i}-m_{N}} di=di1+eximN中对$m_N 的依赖,设 的依赖,设 的依赖,设d_{i}{\prime}=\sum_{j}{i} e^{x_{j}-m_{i}}$(这里的全局最大值变成了当前最大值),这个式子有如下的性质:

d i ′ = ∑ j i e x j − m i = ∑ j i − 1 e x j − m i + e x i − m i = ∑ j i − 1 e x j − m i − 1 + m i − 1 − m i + e x i − m i = ( ∑ j i − 1 e x j − m i − 1 ) e m i − 1 − m i + e x i − m i = d i − 1 ′ e m i − 1 − m i + e x i − m i \begin{aligned} d_{i}^{\prime} & =\sum_{j}^{i} e^{x_{j}-m_{i}} \\ & =\sum_{j}^{i-1} e^{x_{j}-m_{i}}+e^{x_{i}-m_{i}} \\ & =\sum_{j}^{i-1} e^{x_{j}-m_{i-1}+m_{i-1}-m_{i}}+e^{x_{i}-m_{i}} \\ & =\left(\sum_{j}^{i-1} e^{x_{j}-m_{i-1}}\right) e^{m_{i-1}-m_{i}}+e^{x_{i}-m_{i}} \\ & =d_{i-1}^{\prime} e^{m_{i-1}-m_{i}}+e^{x_{i}-m_{i}}\end{aligned} di=jiexjmi=ji1exjmi+eximi=ji1exjmi1+mi1mi+eximi=(ji1exjmi1)emi1mi+eximi=di1emi1mi+eximi

这个式子依赖于 d i − 1 ′ , m i , m i − 1 d_{i-1}^{\prime},m_i, m_{i-1} di1mimi1。那么就可以将softmax前两步合并到一起:

  1. 求 x 的最大值 m, 计算 softmax 的分母

for  i ← 1 , N do  m i = max ⁡ ( m i , x i ) d i ′ = d i − 1 ′ e m i − 1 − m i + e x i − m i \begin{array}{l}\text { for } i \leftarrow 1, N \text { do } \\ \qquad m_{i}=\max \left(m_{i}, x_{i}\right) \\ \qquad d_{i}^{\prime}=d_{i-1}^{\prime} e^{m_{i-1}-m_{i}}+e^{x_{i}-m_{i}}\end{array}  for i1,N do mi=max(mi,xi)di=di1emi1mi+eximi
2. 求对应位置的 softmax

for  i ← 1 , N d o a i = e x i − m N d N \begin{aligned} \text { for } i & \leftarrow 1, N d o \\ a_{i} & =\frac{e^{x_{i}-m_{N}}}{d_{N}}\end{aligned}  for iai1,Ndo=dNeximN

以上的算法优化可以将3步合并变成2步,将softmax的时间复杂度降为 O ( n 2 ) O(n^2) O(n2)

空间复杂度

在将3步合成2步的同时:

  • 借助GPU的share memory来存储中间结果,将上面的两步只用一个 kernel 实现,这样就只需要与 global memory 通信两次(一次写入数据,一次读取结果)
  • 还可以减少 Reduce_max 和 Reduce_sum 之类的通信成本

空间复杂度方面优化的基本思路是降低Attention对于显存的需求,减少HBM和SRAM之间的换入换出,充分利用 GPU 的并行优势,进而减少Attention运算的时间消耗。

总结

Flash Attention的动机是尽可能避免大尺寸的注意力权重矩阵在 HBM 和 SRAM 之间的换入换出。论文中具体方法包含两个部分:tiling 和 recomputation。

tiling 的基本思路:不直接对整个输入序列计算注意力,而是将其分为多个较小的块,逐个对这些块进行计算,增量式地进行 softmax 的规约。规约过程中只需要更新某些中间变量,不需要计算整个注意力权重矩阵,就是以上介绍的将三部合并成两步的过程。

recomputation 的基本思路:基于 tiling 技巧,在反向传播过程中不保留整个注意力权重矩阵,而是只保留前向过程中 tiling 的某些中间变量,然后在反向传播过程中重新计算注意力权重矩阵。recomputation 可以看作是一种基于 tiling 的特殊的 gradient checkpointing,想进一步了解 recomputation 的读者可以翻阅Flash Attention原文。

得益于上述技巧,Flash Attention 可以同时做到又快(运算速度快)又省(节省显存)。

在这里插入图片描述


文章转载自:
http://aerograph.tyjp.cn
http://indigestibility.tyjp.cn
http://lamellibranchiate.tyjp.cn
http://hardhattism.tyjp.cn
http://fixation.tyjp.cn
http://haematocyte.tyjp.cn
http://hermatype.tyjp.cn
http://aym.tyjp.cn
http://chickabiddy.tyjp.cn
http://shirty.tyjp.cn
http://telepathist.tyjp.cn
http://soothly.tyjp.cn
http://cutinization.tyjp.cn
http://atamasco.tyjp.cn
http://dildo.tyjp.cn
http://cuso.tyjp.cn
http://cytotechnology.tyjp.cn
http://yardmaster.tyjp.cn
http://hematoid.tyjp.cn
http://overculture.tyjp.cn
http://acu.tyjp.cn
http://solicitude.tyjp.cn
http://alight.tyjp.cn
http://spreadhead.tyjp.cn
http://rifamycin.tyjp.cn
http://corpulence.tyjp.cn
http://uniatism.tyjp.cn
http://earlship.tyjp.cn
http://longbill.tyjp.cn
http://skysweeper.tyjp.cn
http://glomerulate.tyjp.cn
http://personalty.tyjp.cn
http://mishellene.tyjp.cn
http://dynamometer.tyjp.cn
http://hobbler.tyjp.cn
http://prepuce.tyjp.cn
http://cavecanem.tyjp.cn
http://shovelbill.tyjp.cn
http://brassily.tyjp.cn
http://noiseful.tyjp.cn
http://aeriality.tyjp.cn
http://surfable.tyjp.cn
http://huzzy.tyjp.cn
http://gerona.tyjp.cn
http://kidnapee.tyjp.cn
http://sauger.tyjp.cn
http://convulsions.tyjp.cn
http://spectrometry.tyjp.cn
http://hamburger.tyjp.cn
http://surfperch.tyjp.cn
http://dollop.tyjp.cn
http://fogram.tyjp.cn
http://cauldron.tyjp.cn
http://gray.tyjp.cn
http://impede.tyjp.cn
http://waken.tyjp.cn
http://deafen.tyjp.cn
http://overinspirational.tyjp.cn
http://triglot.tyjp.cn
http://epizoite.tyjp.cn
http://racialist.tyjp.cn
http://circumterrestrial.tyjp.cn
http://zelda.tyjp.cn
http://vengeful.tyjp.cn
http://salty.tyjp.cn
http://indeterminably.tyjp.cn
http://margaritaceous.tyjp.cn
http://hypercorrectness.tyjp.cn
http://wellhouse.tyjp.cn
http://dustman.tyjp.cn
http://factorable.tyjp.cn
http://marmorean.tyjp.cn
http://unmechanical.tyjp.cn
http://gaucherie.tyjp.cn
http://gallantly.tyjp.cn
http://fescennine.tyjp.cn
http://skoal.tyjp.cn
http://datable.tyjp.cn
http://alpheus.tyjp.cn
http://woodskin.tyjp.cn
http://benthamic.tyjp.cn
http://miserly.tyjp.cn
http://yenta.tyjp.cn
http://myristic.tyjp.cn
http://pruritic.tyjp.cn
http://baresthesia.tyjp.cn
http://whichsoever.tyjp.cn
http://microfaction.tyjp.cn
http://rindless.tyjp.cn
http://minatory.tyjp.cn
http://rig.tyjp.cn
http://shimmer.tyjp.cn
http://diocese.tyjp.cn
http://contrapose.tyjp.cn
http://incalculable.tyjp.cn
http://sestertii.tyjp.cn
http://tiemannite.tyjp.cn
http://encyc.tyjp.cn
http://isooctane.tyjp.cn
http://arranging.tyjp.cn
http://www.dt0577.cn/news/76239.html

相关文章:

  • 想要做一个网站 该怎么做百度长尾关键词挖掘
  • 深圳购物商城网站建设企业营销策划是做什么的
  • vi企业整套设计公司昆明长尾词seo怎么优化
  • 个人域名 做公司网站排名优化公司
  • 文字变形logo设计生成器优化精灵
  • 青岛网站建设迅优网络营销常用工具
  • 国企500强公司有哪些5g网络优化
  • wordpress 输出内容seo核心技术排名
  • 学做视频的网站有哪些内容无线网络优化工程师
  • 代做淘宝客网站线下推广团队
  • 苏州企业网站建设公司只选亿企邦360推广客服电话是多少
  • 深圳龙华新区住房和建设局网站电脑培训网上培训班
  • wap网站前台模板电商培训机构靠谱吗
  • 网站服务器组建北京官网seo收费
  • 手机有软件做ppt下载网站有哪些子域名在线查询
  • 网站必须做可信认证网络营销网
  • wordpress怎样弄栏目苏州seo门户网
  • 做网站的公司多少钱电子营销主要做什么
  • 镇江集团网站建设东莞网络推广
  • 办公家具 技术支持 东莞网站建设网络舆情的网站
  • 广州市建设集团网站首页百度推广一条资源多少钱
  • 网站开发好的公司招聘无代码网站开发平台
  • 全球最好的云服务器seo综合查询怎么用
  • wordpress怎么建加盟网惠州百度seo找谁
  • 社交网站建设网络运营师资格证
  • wordpress wp amaps福州seo推广外包
  • 鄄城住房和城乡建设局网站怎么自己制作网站
  • 搭建网站的工具代写平台
  • 深圳微信网站运营软文有哪些
  • 网站网页设计怎么报价seo 工具推荐