基于语义分割的场景解析是计算机视觉中的基本主题。目标是为图像中的每个像素分配一个类别标签。场景解析提供了对场景的完整理解。它预测每个元素的标签、位置和形状。
场景解析的难度与场景和标签的多样性密切相关。
最先进的场景解析框架主要基于全卷积网络 (FCN) [26]。基于深度卷积神经网络 (CNN) 的方法提高了对对象的动态理解。
对于准确的场景感知,知识图依赖于场景上下文的先验信息。我们发现,当前基于FCN的模型的主要问题是缺乏利用全局场景类别线索的合适策略。对于典型的复杂场景理解,以前为了获得全局图像级别的特征,空间金字塔池 [18] 被广泛使用,其中空间统计为整体场景解释提供了良好的描述符。空间金字塔池网络 [12] 进一步增强了能力。
与这些方法不同,为了结合合适的全局特征,我们提出了金字塔场景解析网络 (PSPNet)。除了用于像素预测的传统扩张型FCN [3,40] 之外,我们还将像素级特征扩展到专门设计的全局金字塔池。局部和全局线索共同使最终预测更加可靠。我们还提出了一种深度监督损失的优化策略。
在强大的深度神经网络 [17,444,34,13] 的驱动下,像场景解析和语义分割这样的像素级预测任务通过用卷积层代替分类中的全连接层而获得了巨大的进步 [26]。为了扩大神经网络的感受域,[3,40] 方法使用了扩张卷积。Noh等 [30] 提出了一种具有反卷积网络的粗到细结构