2022 CVPR : On the Integration of Self-Attention and Convolution

论文
github
gitee

1. 摘要

  • 卷积操作和注意力机制都可以用来学习表征,两者之间存在根本关系。从某个意义说,这两个范例的大部分计算实际上用相同的操作完成。传统的\begin{array}{c} k\times k \end{array}卷积可以被分解成\begin{array}{c} k^{2} \end{array}个1×1卷积,移位和求和操作。然后,我们将查询、键和值在自我注意力模块中的投影解释为多个1×1卷积,然后计算关注权重和值的聚合。该混合模型既享受了self-Attention 和Convolution (ACmix)的好处,同时与纯卷积或自我注意力对应模型相比具有最小的计算开销。

2. 引言

  • 卷积操作根据卷积滤波器的权重在局部感受野上使用聚合函数,而这些权重是在整个特征图中共享的。这个特性给图像处理带来了关键的归纳偏差。 注意力模块基于输入特征的上下文应用加权平均操作,其中通过相关像素对之间的相似度函数动态计算关注权重。这种灵活性使注意力模块能够自适应地关注不同的区域,并捕获更多的信息特征。
  • 具体来说,我们首先用1×1卷积投影输入特征图,并获得一组丰富的中间特征。然后,按照不同的范式重用和聚合中间特征,即分别以自注意力和卷积的方式。通过这种方式,ACmix享受了两个模块的好处,并有效地避免了两次进行昂贵的投影操作所带来的代价。

3. 方法

3.1 自注意力与卷积的联系

  • 自注意力和卷积模块的分解存在密切联系。第一阶段是一个特征学习模块,其中两种方法通过执行1×1卷积将特征投影到更深的空间来共享相同的操作。另一方面,第二阶段对应于特征聚合过程,尽管其学习范式存在差异。
  • 从计算角度来看,在卷积和自我关注模块的阶段一进行的1×1卷积需要理论FLOP和与通道维度大小C相关的参数的平方复杂度。相比之下,在第二阶段,两个模块都是轻量级的或者几乎不需要计算量。
  • 因此,上述分析表明,(1)卷积和自注意力实际上共享通过1×1卷积投影输入特征图的相同操作,这也是两个模块的主要计算开销。(2) 尽管对于捕获语义特征至关重要,但第二阶段的聚合操作是轻量级的,不会产生额外的学习参数。

3.2 自注意力与卷积的整合

ACmix
  • ACmix包括两个阶段:
      在第一阶段,输入特征通过三个1×1卷积进行投影,并分别重塑为N块,得到3×N特征映射的中间特征集。
      在第二阶段,有自注意力路径和卷积两个路径。对于自注意路径,对应的三个特征映射作为查询、键和值,遵循传统的多头自注意模块。
      对于核大小为k的卷积路径,采用轻型全连接层并生成 k² 特征图,同时进行移位操作和聚合。
      最后,将两条路径的输出加在一起,强度由两个可学习标量控制:
    \begin{array}{c} F_{out} = \alpha F_{att} + \beta F_{conv} \end{array}

3.3 改进的移位和求和

改进的移位
  • 移位操作的改进
    (a) 使用张量移位的简单实现。
    (b) 使用精心设计的组卷积核快速实现。
    (c ) 进一步适应可学习内核和多个卷积组。

  • 尽管理论上是轻量级的,但将张量向各个方向移动实际上会破坏数据局部性并且难以实现矢量化实现。所以用固定卷积核的深度卷积作为位移。以Shift(f,−1,−1)为例,移位特征计算为:
    \begin{array}{c} \tilde{f}_{c,i,j}= f_{c,i-1,j-1} ,\forall _{c,i,j} \end{array}

  • 定义一个\begin{array}{c} 3\times 3 \end{array}的卷积核
    \begin{array}{c} K_{c} =\begin{bmatrix} 1 & 0 &0 \\ 0 & 0& 0\\ 0 &0 &0 \end{bmatrix},\forall _{c} \end{array}

  • 相应的输出可以表述为:
    f_{c,i,j}^{(dwc)} = \sum_{p,q\in {0,1,2}} K_{c,p,q} f_{c,i+p-\left \lfloor k/2 \right \rfloor,j+q-\left \lfloor k/2 \right \rfloor } \\ =f_{c,i-1,j-1}=\tilde{f} _{c,i,j} ,\forall _{c,j,j}

  • 通过精心设计特定移位方向的核权重,卷积输出就等价于简单张量移位。这样的修改使该模块具有更高的计算效率。在此基础上,还引入了一些适应性,增强模块的灵活性。卷积核作为可学习的权重释放,移位核作为初始化。这提高了模型的容量。

3.4 ACmix的计算代价

ACmix计算代价对比
  • 阶段1的计算成本和训练参数与自注意相同,比传统卷积更轻。阶段2中的ACmix引入了一个轻量级全连接层和组卷积的额外计算开销。计算复杂度与通道大小C呈线性关系,与阶段I相比相对较小。

4. 实验结果

4.1 ImageNet

ImageNet实验结果

4.2 ADE20K

ADE20K实验结果

4.3 COCO

COCO实验结果

COCO数据集对比

4.4 消融实验

参数设置对比
权重参数对比
  • α和β实际上反映了模型在不同深度对卷积或自我注意的偏向。在Transformer模型的早期阶段,卷积可以作为很好的特征提取器。在网络的中间阶段,模型倾向于利用两种路径的混合,并越来越倾向于卷积。在最后一个阶段,自注意表现出优于卷积。
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 206,839评论 6 482
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 88,543评论 2 382
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 153,116评论 0 344
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 55,371评论 1 279
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 64,384评论 5 374
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 49,111评论 1 285
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,416评论 3 400
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,053评论 0 259
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 43,558评论 1 300
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,007评论 2 325
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,117评论 1 334
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,756评论 4 324
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,324评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,315评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,539评论 1 262
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,578评论 2 355
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,877评论 2 345

推荐阅读更多精彩内容