atc:别再用平均池化层了!Meta AI把注意力塞到池化层,性能提升0.3_pathhive

编辑:LRS

注意力机制这么好用,怎么不把它塞到卷积网络里?最近MetaAI的研究人员提出了一个基于注意力的池化层,仅仅把平均池化层替换掉,就能获得+0.3%的性能提升!

VisualTransformer作为计算机视觉领域的新兴霸主,已经在各个研究任务中逐渐替换掉了卷积神经网络CNN。

ViT与CNN之间存在着许多不同点,例如ViT的输入是imagepatch,而非像素;分类任务中,ViT是通过对类标记进行决策等等。

classtoken实际上是ViT论文原作者提出,用于整合模型输入信息的token。classtoken与每个patch进行信息交互后,模型就能了解到具体的分类信息。

并且在自注意力机制中,最后一层中的softmax可以作为注意力图,根据classtoken和不同patch之间的交互程度,就能够了解哪些patch对最终分类结果有影响及具体程度,也增加了模型可解释性。

但这种可解释性目前仍然是很弱的,因为patch和最后一层的softmax之间还隔着很多层和很多个header,信息之间的不断融合后,很难搞清楚最后一层softmax是否真的可以解释分类。

调查:四分之三美国人对加密行业未来有信心:金色财经报道,Paxos 最近的一项调查显示,尽管新兴资产类别经历了动荡的一年,但美国市场对加密货币的热情很高,在接受调查的 5,000 名美国工作年龄成年人中,75% 的人仍然“对加密货币的未来充满信心或有些信心”, 72% 的受访者对过去一年加密市场的波动“有点担心或根本不担心”,该调查于 1 月 5 日至 6 日进行,调查对象包括收入超过 50,000 美元、拥有银行账户并在过去三年内购买了加密货币的成年人。(The Block)[2023/3/7 12:47:48]

所以如果ViT和CNN一样有视觉属性就好了!

最近MetaAI就提出了一个新模型,用attentionmap来增强卷积神经网络,说简单点,其实就是用了一个基于注意力的层来取代常用的平均池化层。

仔细一想,池化层和attention好像确实很配啊,都是对输入信息的加权平均进行整合。加入了注意力机制以后的池化层,可以明确地显示出不同patch所占的权重。

Klaviyo:78% 美国人认为“元宇宙”只是一波炒作:金色财经报道,市场调研公司 Klaviyo 近期对一千名美国民众进行调查,发现不只高达 49% 美国民众不知道元宇宙是什么,甚至有 78% 的人认为元宇宙只是一种炒作的行销话语。调查还发现,理论上应对元宇宙比较有兴趣的 18-24 岁年轻人,有约 45% 受访者表示他们不知道什么是元宇宙,甚至认为它是炒作的比例还比全年龄更高,达到 81%。除此之外,NFT、加密货币也没想像中受到普遍欢迎,全年龄受访者中接近 60% 的人表示他们不会投资 NFT,另外有 30% 的人表示坚决远离加密货币。[2022/3/10 13:48:36]

并且与经典ViT相比,每个patch都会获得一个单一的权重,无需考虑多层和多头的影响,这样就可以用一个简单的方法达到对注意力可视化的目的了。

在分类任务中更神奇,如果对每个类别使用不同颜色进行单独标记的话,就会发现分类任务也能识别出图片中的不同物体。

调查:目前十分之一的美国人投资加密货币:9月5日消息,最近的一项调查显示,美国的加密货币投资者数量持续增长,美国十分之一的人目前投资加密货币。在目前投资加密货币的总数 11% 中,男性的数量高于女性,投资加密货币的女性占女性人口的 7%。投资加密货币的男性占男性人口的 16%,种族和族裔群体以及年龄等因素也存在差异。数据显示,仅在过去三年中,比特币投资者的数量就增加了两倍,这主要是由牛市引发的。(Bitcoinist)[2021/9/5 23:01:15]

基于Attention的池化层

文章中新提出的模型叫做PatchConvNet,核心组件就是可学习的、基于attention的池化层。

模型架构的主干是一个卷积网络,相当于是一个轻量级的预处理操作,它的作用就是把图像像素进行分割,并映射为一组向量,和ViT中patchextraction操作对应。

调查:美国人对基础设施法案中的加密税收条款存在党派分歧:金色财经报道,根据情报公司Morning Consult最近发布的一项民意调查,52%的美国人支持基础设施法案中有争议的加密货币税收报告条款。然而,在这个问题上存在明显的党派分歧。34%的共和党人和15%的民主党人“有点反对”或“强烈反对”对该条款对加密货币的打击。这可能并不令人意外,因为根据早期的调查,共和党选民往往对加密货币更加友好。[2021/8/5 1:35:09]

最近也有研究表明,采用卷积的预处理能让模型的性能更加稳定。

模型的第二部分column,包含了整个模型中的大部分层、参数和计算量,它由N个堆叠的残差卷积块组成。每个块由一个归一化、1*1卷积,3*3卷积用来做空间处理,一个squeeze-and-excitation层用于混合通道特征,最后在残差连接前加入一个1*1的卷积。

动态 | 4%的美国人选择加密货币作为长期投资的最佳选择:据Bitcoinist 7月22日消息,根据SSRS最近的一项研究,4%的美国人选择比特币和其他加密货币作为长期投资的最佳选择。另外,富达投资早些时候委托进行的一项调查显示,47%的机构投资者将加密资产视为他们投资组合的一部分。[2019/7/22]

研究人员对模型块的选择也提出了一些建议,例如在batchsize够大的情况下,BatchNorm往往效果比LayerNorm更好。但训练大模型或者高分辨率的图像输入时,由于batchsize更小,所以BatchNorm在这种情况下就不太实用了。

下一个模块就是基于注意力的池化层了。

在主干模型的输出端,预处理后的向量通过类似Transformer的交叉注意力层的方式进行融合。

注意力层中的每个权重值取决于预测patch与可训练向量之间的相似度,结果和经典ViT中的classtoken类似。

然后将产生的d维向量添加到CLS向量中,并经过一个前馈网络处理。

与之前提出的class-attentiondecoder不同之处在于,研究人员仅仅只用一个block和一个head,大幅度简化了计算量,也能够避免多个block和head之间互相影响,从而导致注意力权重失真。

因此,classtoken和预处理patch之间的通信只发生在一个softmax中,直接反映了池化操作者如何对每个patch进行加权。

也可以通过将CLS向量替换为k×d矩阵来对每个类别的attentionmap进行归一化处理,这样就可以看出每个块和每个类别之间的关联程度。

但这种设计也会增加内存的峰值使用量,并且会使网络的优化更加复杂。通常只在微调优化的阶段以一个小的学习率和小batchsize来规避这类问题。

实验结果

在图像分类任务上,研究人员首先将模型与ImageNet1k和ImageNet-v2上的其他模型从参数量,FLOPS,峰值内存用量和256张图像batchsize下的模型推理吞吐量上进行对比。

实验结果肯定是好的,可以看到PatchConvNet的简单柱状结构相比其他模型更加简便和易于扩展。对于高分辨率图像来说,不同模型可能会针对FLOPs和准确率进行不同的平衡,更大的模型肯定会取得更高的准确率,相应的吞吐量就会低一些。

在语义分割任务上,研究人员通过ADE20k数据集上的语义分割实验来评估模型,数据集中包括2万张训练图像和5千张验证图像,标签超过150个类别。由于PatchConvNet模型不是金字塔式的,所以模型只是用模型的最后一层输出和UpperNet的多层次网络输出,能够简化模型参数。研究结果显示,虽然PatchConvNet的结构更简单,但与最先进的Swin架构性能仍处于同一水平,并且在FLOPs-MIoU权衡方面优于XCiT。

在检测和实例分割上,研究人员在COCO数据集上对模型进行评估,实验结果显示PatchConvNet相比其他sota架构来说,能够在FLOPs和AP之间进行很好的权衡。

在消融实验中,为了验证架构问题,研究人员使用不同的架构对比了Transformer中的classattention和卷积神经网络的平均池化操作,还对比了卷积主干和线性投影之间的性能差别等等。实验结果可以看到卷积主干是模型取得最佳性能的关键,class-attention几乎没有带来额外的性能提升。

另一个重要的消融实验时attention-basedpooling和ConvNets之间的对比,研究人员惊奇地发现可学习的聚合函数甚至可以提高一个ResNet魔改后模型的性能。

通过把attention添加到ResNet50中,直接在Imagenet1k上获得了80.1%的最高准确率,比使用平均池化层的baseline模型提高了+0.3%的性能,并且attention-based只稍微增加了模型的FLOPs数量,从4.1B提升到4.6B。

参考资料:

https://arxiv.org/abs/2112.13692

郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。

大币网

[0:0ms0-2:441ms