网易首页 > 网易号 > 正文 申请入驻

Self-Attention 加速方法一览:ISSA、CCNet、CGNL、Linformer

0
分享至

Attention 机制最早在NLP 领域中被提出,基于attention 的transformer结构近年在NLP的各项任务上大放异彩。在视觉任务中,attention也收到了很多的关注,比较有名的方法包括Non-Local Network,能够在时空volume中对全局的关系进行建模,获得了很好的效果。但视觉任务中的self-attention模块通常需要进行大矩阵的矩阵乘法,显存占用大且比较耗时。所以近年有许多优化self-attention模块速度的方法,这篇笔记主要讨论几篇相关方法,有错误之处欢迎指正。

Self-Attention 简介

Attention 机制通常可以表达为如下的形式

其中, 为query, 为key, 为value。从检索任务的角度来看,query是要检索的内容,key是索引,value则是待检索的值。attention的过程就是计算query 和key之间的相关性,获得attention map,再基于attention map去获得value中的特征值。而在如下图所示的self-attention中,Q K V均为同一个feature map。

上图是一个self-attention模块的基本结构,输入为 , 分别通过1x1卷积获得 。则可以获得attention map为 。最后与 做矩阵乘法获得与输入shape想同的self-attention feature map。

在self-attention中,计算量和显存占用比较大的主要是生成attention map时的 和 最后的 两个步骤。对于64大小的feature map, 的大小为 。因此,self-attention 模块通常放在分辨率较低的网络后半段特征。

如何了优化attention的显存和计算量效率内,今天介绍的方法主要有两个方向的思路:

  • 改变attention的形式,避免直接全图attention

    • Long + Short range attention:Interlaced Sparse Self-Attention

    • 水平+垂直attention:Ccnet: Criss-cross attention for semantic segmentation

    • A2-Nets: Double Attention Networks

  • 降低attention计算过程中的某个维度

    • 降低N维度:Linformer: Self-Attention with Linear Complexity

    • 降低C维度:常用方法了,通常就是C/2 或者C/4

  • 其他

    • 优化GNL:Compact generalized non-local network


Attention 形式优化

ISSA: Interlaced Sparse Self-Attention

  • 论文基本思路: 这篇论文的基本思路是“交错”。如下图所示,首先通过permute将feature以一定规律打乱,然后将feature map分为几个块分别做self-attention,这样获得的是long-range 的attention信息;此后,再进行一次permute还原回原来的特征位置,再次进行分块attention,获得了short-range 的attention。通过拆解long/short range的attention,能够大大降低计算量。

  • 具体的性能表现如下图所示,可以看出,下降最明显的是显存的占用,主要是因为避免了attention过程中的大矩阵。而由于permute,divide等操作虽然不占flop,但是在inference的时候需要一定的时间,所以实际速度没有flops提升的那么多。不过总体而言,在效果没有明显下降的前提下,这个速度/显存的优化已经很优秀了。

  • 这篇文章在看的时候感觉既视感好强,后来想到这不就是hw上的shufflenet嘛。

CCNet: Criss-cross attention for semantic segmentation

  • 论文主要思路: 区别与Non-Local 中的全局attention,这篇文章提出只在特征点所对应的十字上进行attention。从而将复杂度从 降低到

  • CCNet 的具体做法是,对于 上的一个点 ,我们都可以得到对应的特征向量 ,对于这个点对应的十字形区域,我们可以从 中提取对应的特征,构成 ,针对 和 进行矩阵乘法,则可以得到attention map 为 。最后对 以同样的方式提取十字形特征并进行矩阵乘法,则可以得到最后的结果。

  • 那么如何从十字attention过渡到全局attention呢,方法其实很简单,只需要做两次十字attention,每个点就可以获得全局的信息了。

  • CCNet 的理论计算量(Flops and memory)比起Non-Local 是很有优势的。但是提取十字形特征这一步的效率可能并不是很高,论文中也并没有放出具体的代码实现。

A2-Nets: Double Attention Networks

  • 这篇论文的attention 方式看下图即可

  • 第一个 feautre gathering,可以理解为对每个channel,softmax找到最重要的位置,再去gathering所有channel上这个最重要位置上的特征;得到 CxC

  • 第二个 feautre distribution,可以理解为对每个channel,softmax找到最重要的位置,然后给每个channel的这个位置都分配一遍特征。

  • 这篇文章的attention 方式很有趣,值得仔细琢磨一下的。不过速度方面比起NL应该没有提升特别多。


Attention 维度优化

Linformer: Self-Attention with Linear Complexity

  • Attention的过程如上所说,可以看作是 ,这篇文章对N做降维,将attention 转化为 ,在K是定值的情况下,既将复杂度从 降低到了

  • 这篇文章大部分的篇幅,是在证明这样降低维度和原来的结果是近似的,没看太懂证明部分

  • 实验部分,K取得越大效果越好,但是并不明显。即降维会非常略微地影响效果,同时非常有效地提升速度。


其他

CGNL: Compact generalized non-local network

这篇文章主要是来优化一种计算量更大的Self-attention方法:Generalized Non-local (GNL)。这种方法不仅做H W两个spatial尺度上的non-local attention,还额外考虑了C维度。因此复杂度是 。

这篇文章的主要思路是:利用泰勒展开,将 近似成了 。从而可以通过先计算后两项,将复杂度从 降低到了

  • 这篇文章在视频理解、目标检测等任务上的实验效果都还不错,但是并没有给出速度方面的实验结果和分析。

来源:知乎

作者:林天威

深延科技|

深延科技成立于2018年1月,中关村高新技术企业,是拥有全球领先人工智能技术的企业AI服务专家。以计算机视觉、自然语言处理和数据挖掘核心技术为基础,公司推出四款平台产品——深延智能数据标注平台、深延AI开发平台、深延自动化机器学习平台、深延AI开放平台,为企业提供数据处理、模型构建和训练、隐私计算、行业算法和解决方案等一站式AI平台服务。

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

/阅读下一篇/

分享 | M4C多模态transformer对TextVQA进行迭代式答案预测

返回网易首页 下载网易新闻客户端
相关推荐
热点推荐
士兵突击演员重聚,20年后差距一目了然,爆火5人只有王宝强来了

士兵突击演员重聚,20年后差距一目了然,爆火5人只有王宝强来了

大歪歪
2025-04-22 16:19:09
俄罗斯军事专家:“有了特朗普总统,美国霸权要早崩10年”

俄罗斯军事专家:“有了特朗普总统,美国霸权要早崩10年”

农夫史记
2025-04-22 21:48:25
俄专家谈中国非核“氢弹”:中国或已成功试爆一种新型热压弹

俄专家谈中国非核“氢弹”:中国或已成功试爆一种新型热压弹

俄罗斯卫星通讯社
2025-04-22 15:12:44
王安宇知三当三!?

王安宇知三当三!?

八卦疯叔
2025-04-22 11:03:23
80后的现状真是一言难尽啊!看完网友分享,真的有被触动到了

80后的现状真是一言难尽啊!看完网友分享,真的有被触动到了

解读热点事件
2025-02-15 00:05:09
诺维茨基宣布退出球队运营!哈里森和独行侠,这是你们应得的

诺维茨基宣布退出球队运营!哈里森和独行侠,这是你们应得的

Haviven聊球
2025-04-22 23:35:28
男生18cm有啥坏处?妹子现场演示长短对比太生动,看完动图秒懂哈哈

男生18cm有啥坏处?妹子现场演示长短对比太生动,看完动图秒懂哈哈

经典段子
2025-04-14 23:34:48
44岁黄宗泽近照曝光!眉毛稀疏、朝天鼻,一股老人味,痞帅感全无

44岁黄宗泽近照曝光!眉毛稀疏、朝天鼻,一股老人味,痞帅感全无

柠檬有娱乐
2025-04-21 09:01:56
马筱梅陪继女买泡泡玛特,小玥儿面容清秀,侧颜像极了母亲大S

马筱梅陪继女买泡泡玛特,小玥儿面容清秀,侧颜像极了母亲大S

娱珈歪歪鱼
2025-04-22 17:58:23
吴千语一句话撕碎林峰夫妇的“体面”,黄渤说的话,终于有人信了

吴千语一句话撕碎林峰夫妇的“体面”,黄渤说的话,终于有人信了

大娱聚合
2025-04-22 11:07:46
第一批特斯拉车主已开始换电池!天价费用曝光!

第一批特斯拉车主已开始换电池!天价费用曝光!

生活魔术专家
2025-04-21 13:26:17
卡皮巴拉占领阿根廷富人城!与世无争吃草卖萌,但生太多,要被做绝育了...

卡皮巴拉占领阿根廷富人城!与世无争吃草卖萌,但生太多,要被做绝育了...

英国那些事儿
2025-04-22 23:19:30
被央视批的6部大烂剧,侮辱观众智商,几乎全部下架

被央视批的6部大烂剧,侮辱观众智商,几乎全部下架

瑶瑶侃电影
2025-03-30 14:24:39
沈梦辰现在长这样了?一下子竟然没认出来,脸部变得有点饱满

沈梦辰现在长这样了?一下子竟然没认出来,脸部变得有点饱满

陈意小可爱
2025-04-21 13:44:48
特朗普的“草台班子”又出事了

特朗普的“草台班子”又出事了

山河路口
2025-04-21 20:12:07
网红郭有才,泡沫散去之后,曾经飘的有多高,如今摔得就有多惨

网红郭有才,泡沫散去之后,曾经飘的有多高,如今摔得就有多惨

小邵说剧
2025-03-17 19:23:07
离了大谱!官宣:火箭3.8%概率获状元签,全美第一人空降休斯顿

离了大谱!官宣:火箭3.8%概率获状元签,全美第一人空降休斯顿

埃文凯尔
2025-04-22 10:36:53
身体被撕裂成两段,智取座山雕的阿庆嫂英勇就义,血染昆承湖

身体被撕裂成两段,智取座山雕的阿庆嫂英勇就义,血染昆承湖

老范谈史
2025-04-21 18:29:49
汪小菲大手笔养玥儿,穿搭越来越像富家女,玥儿看起来比之前自信

汪小菲大手笔养玥儿,穿搭越来越像富家女,玥儿看起来比之前自信

沧海一书客
2025-04-22 22:07:03
中央批准开除其党籍后,结交政治骗子的“内鬼”被逮捕

中央批准开除其党籍后,结交政治骗子的“内鬼”被逮捕

上观新闻
2025-04-22 10:47:08
2025-04-23 07:35:00
深兰深延AI
深兰深延AI
让AI赋能更简单!
71文章数 0关注度
往期回顾 全部

科技要闻

美团骑手亲述:京东外卖单子佣金高却难抢

头条要闻

消息人士称普京提议在前线停火 俄方回应

体育要闻

当今足坛最疯的门将,能有多离谱?

娱乐要闻

大s儿女回京!张兰气场全开汪小菲谈养老

财经要闻

宜宾银行与五粮液集团频繁关联交易

汽车要闻

捷途山海T2加长版/山海L9等 捷途新车展前亮相

态度原创

数码
教育
手机
本地
公开课

数码要闻

酷开发布超级智能体:品牌升级 加速AI普惠

教育要闻

TTS新传论文带读:什么是“共通宣传”啊?

手机要闻

realme UI 6.0 支持朋友圈 Live 实况照片

本地新闻

云游湖北 | 澴川醉古今!孝文化名城藏了多少宝藏?

公开课

李玫瑾:为什么性格比能力更重要?