• SD-AANet:Self-Distillation + 注意力模型用于小样本分割任务


    文章目录

    • 前言
    • 概述
    • SD-AANet 整体架构
    • Self-distillation Guided Prototype Generating 模块
    • Supervised Affinity Attention 机制
    • 阶段总结
    • 实验和可视化分析
    • 结论
    • 参考链接
    • 同系列的文章

    前言

    本文是小样本语义分割系列的第四篇解读,每一篇的方法都具有代表性且不同,同系列的文章链接也在文末给出了(分别是 CWT-for-FSS、GFS-Seg 和 CD-FSS)。很多读者在刚学习小样本时可能觉的真的只需要少量样本就可以完成全部的学习过程,这不完全正确,实际上在训练的过程中我们仍然需要大量的样本,只不过我们在测试的时候,我们可以对未曾在训练集中出现过的测试图像类只用几张甚至一张 Support 图像(或者理解为在推理过程中用到的训练图像)来达到对所谓的 unseen 类的分割。而传统的图像分割网络是需要在训练集中也包含了测试集的类才能对测试图像进行分割,比如我想从一张有狗的测试图像里分割出狗,那么在训练集中也需要有分割狗的任务才行,小样本却不需要。

    小样本分割任务有两个通用的可以去解决的问题,首先,Support 和 Query 图像之间存在特征差异导致知识迁移难,从而降低分割性能(有点废话的嫌疑)。其次,Support 图像样本少,导致 Support 特征不具有代表性,难以指导高质量的 Query 图像分割。那么如何捕获代表性的特征,并巧妙的减小 Query 图像的特征差异就是 A Self-Distillation Embedded Supervised Affinity Att

  • 相关阅读:
    matlab贝叶斯隐马尔可夫hmm模型实现
    .NET StackExchange.Redis 操作redis
    AIGC革新,将文字或者LOGO融入AI视频基于PIKA-labs(Python3.10)
    jdbc 技术执行 insert 后获取自增列的值,插入操作时获取自增列的值
    【Arduino+ESP32专题】编写并使用函数
    Java EE初阶---模板引擎
    你了解TLS协议吗?
    IOC的理解学习
    python经典百题之判断星期几
    对象存储
  • 原文地址:https://blog.csdn.net/weixin_43838785/article/details/127758353