• SegNeXt Rethinking Convolutional Attention Design for Semantic Segmentation


    SegNeXt: Rethinking Convolutional Attention Design for Semantic Segmentation

    [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-b96EKg51-1667983787437)(SegNeXt Rethinking Convolutional Attention Design for Semantic Segmentation.assets/image-20221106195502623.png)]

    code:Visual-Attention-Network/SegNeXt: Official Pytorch implementations for “SegNeXt: Rethinking Convolutional Attention Design for Semantic Segmentation” (NeurIPS 2022) (github.com)

    paper:2209.08575.pdf (arxiv.org)

    该文章被 NeurIPS 2022收录。
    在这里插入图片描述

    在这里插入图片描述

    摘要

    我们提出了SegNeXt,一种用于语义分割的简单卷积网络架构。最近的基于transformer的模型由于在编码空间信息时self-attention的效率而主导了语义分割领域。在本文中,我们证明卷积注意力是比transformer中的self-attention更有效的编码上下文信息的方法。通过重新检查成功分割模型所拥有的特性,我们发现了导致分割模型性能改进的几个关键因素。这促使我们设计一种使用轻量的卷积运算的新型卷积注意力网络。我们的SegNeXt在流行的基准测试(包括ADE20K、Cityscapes、COCO Stuff、Pascal VOC、Pascal-Context和iSAID)上大大提高了以前最先进的方法的性能。值得注意的是,SegNeXt的性能优于EfficientNet-L2 w/NAS-FPN,在Pascal VOC 2012测试排行榜上仅使用1/10的参数就达到了90.6%的mIoU。平均而言,与ADE20K数据集上的最先进方法相比,SegNeXt在相同或更少的计算下实现了约2.0%的mIoU改进。

    简介

    作者认为一个成功的语义分割模型应该具有以下特征:(i)作为编码器的强大骨干网络。与以前基于CNN的模型相比,基于transformer的模型的性能改进主要来自于更强的主干网络。(ii)多尺度信息交互。与主要识别单个对象的图像分类任务不同,语义分割是一项密集预测任务,因此需要处理单个图像中不同大小的对象。(iii)空间注意力。空间注意力允许模型通过对语义区域内的区域进行优先排序来执行分割。(iv)计算复杂度低。这在处理来自遥感和城市场景的高分辨率图像时尤为重要。

    作者在这篇文章的主要贡献:

    • 确定了一个好的语义分割模型应该具有的特征,并提出了一种新的定制网络架构,称为SegNeXt,通过多尺度卷积特征唤起空间关注。
    • 具有简单和轻量的卷积的编码器仍然可以比视觉变换器更好地执行,尤其是在处理对象细节时,同时它需要更少的计算成本。
    • 在各种分割基准上大大提高了最先进的语义分割方法的性能,包括ADE20K、Cityscapes、COCO Stuff、Pascal VOC、Pascal-Context和iSAID。

    方法

    在这里插入图片描述

    3.1 卷积encoder

    作者在之前的大多数工作之后,对编码器采用金字塔结构。对于编码器中的构建块,采用了与ViT似的结构,但不同的是,我们没有使用self-attention,而是设计了一个新的多尺度卷积注意力(MSCA)模块。如图2(a)所示,MSCA包含三个部分:用于聚合局部信息的深度方向卷积、用于捕获多尺度上下文的多分支深度方向条带卷积以及用于建模不同信道之间关系的1×1卷积。1×1卷积的输出直接用作注意力权重,以重新加权MSCA的输入。

    数学上,我们的MSCA可以写成:
    A t t = C o n v 1 × 1 ( ∑ i = 0 3 S c a l e i ( D W − C o n v ( F ) ) ) Att=Conv_{1 \times 1}(\sum_{i=0}^3 Scale_i(DW-Conv(F))) Att=Conv1×1(i=03Scalei(DWConv(F)))

    O u t = A t t ⊗ F Out=Att \otimes F Out=AttF

    其中 F F F代表的是输入特征。 ⊗ \otimes 是逐个元素的矩阵分解。 D W − c o n v DW-conv DWconv是深度可分离卷积。请注意,在MSCAN的每个构建块中,我们使用batch normalization而不是layer normalization,因为我们发现batch normalization在分割性能方面获得了更好的效果。

    [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-5pgIoqLn-1667983787443)(SegNeXt Rethinking Convolutional Attention Design for Semantic Segmentation.assets/image-20221106201927473.png)]

    3.2 decoder

    [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-QHeit99R-1667983787444)(SegNeXt Rethinking Convolutional Attention Design for Semantic Segmentation.assets/image-20221106202024753.png)]

    作者讲述了目前主流的语义分割网络decoder结构,如上图3所示。作者采用c这种方式,效果好、参数少。

    实验结果

    [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-DwLXJCzT-1667983787445)(SegNeXt Rethinking Convolutional Attention Design for Semantic Segmentation.assets/image-20221106202200695.png)]

    [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-2yyCjYQ1-1667983787446)(SegNeXt Rethinking Convolutional Attention Design for Semantic Segmentation.assets/image-20221106202223704.png)]

    [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-NsTfUTBR-1667983787446)(SegNeXt Rethinking Convolutional Attention Design for Semantic Segmentation.assets/image-20221106202232080.png)]

    在这里插入图片描述

    总结

    在本文中,作者分析了以前成功的分割模型,并发现了它们所具有的良好效果。基于这些发现,作者提出了一个量身定制的卷积注意力模块MSCA和一个CNN风格的网络SegNeXt。实验结果表明,SegNeXt在很大程度上超过了当前最先进的基于transformer的方法。

    最近,基于transformer的模型已经主导了各种细分排行榜。相反,本文表明,当使用适当的设计时,基于CNN的方法仍然可以比基于transformer的方法更好地执行。我们希望这篇论文能够鼓励研究人员进一步研究CNN的潜力。

    适当的设计时,基于CNN的方法仍然可以比基于transformer的方法更好地执行。我们希望这篇论文能够鼓励研究人员进一步研究CNN的潜力。

    [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-X9WW8djp-1667983787448)(SegNeXt Rethinking Convolutional Attention Design for Semantic Segmentation.assets/image-20221106202450646.png)]

  • 相关阅读:
    【论文阅读】Cornus: Atomic Commit for a Cloud DBMS with Storage Disaggregation
    模型对象CSS2DObject始终在画布的左上角(问题解决)
    挂站服务器什么意思?挂站服务器可以挂多少网站?
    【HR】胜任力相关资料--20230915
    Java开发中的工作流程和步骤
    Kotlin学习(一)
    原三高搜索条件-多选问题
    【Kubernetes】Kubernetes的污点和容忍度
    CentOS 7 下 Telnet 远程 root 登录
    springboot 集成minio 实现文件上传
  • 原文地址:https://blog.csdn.net/qq_45041871/article/details/127773111