摘要:提出了卷积块注意模块 (CBAM),这是一种用于前馈卷积神经网络的简单而有效的注意模块。给定一个中间特征图,我们的模块依次沿两个独立的维度 (通道和空间) 推断注意力图,然后将注意力图乘以输入特征图以进行自适应特征细化。因为CBAM是一个轻量级的通用模块,所以它可以无缝集成到任何CNN架构中,开销可以忽略不计,并且可以与基础CNN一起端到端训练。
卷积神经网络 (cnn) 因为其丰富的表示能力,显著推动了视觉处理 [1,2,3]。为了提高cnn的性能,最近的研究主要研究了网络的三个重要因素: 深度,宽度和基数
从LeNet体系结构 [4] 到残差式网络 [5,6,7,8] ,网络已经变得更加深入。VGGNet [9] 显示,堆叠具有相同形状的块表现出非常好的性能。遵循同样的思想,ResNet [5] 使用skip connection,堆叠相同的残差块,以构建极其深入的体系结构。GoogLeNet [10] 表明宽度是提高模型性能的另一个重要因素。Zagoruyko和Komodakis [6] 建议增加基于ResNet架构的网络宽度。他们已经表明,在CIFAR基准上,具有增加宽度的28层ResNet可以胜过具有1001层的极深ResNet。Xception [11] 和ResNeXt [7] 提出来增加网络的基数。他们从经验上表明,基数不仅节省了参数的总数,而且比其他两个因素 (深度和宽度) 具有更强的表示能力
除了这些因素之外,我们还研究了