先来个CNN得到各Patch作为输入,再使用transformer做编码和解码
编码方式跟VIT基本一样,重在在解码,Detr假设一张图片中最多有100个物体,直接预测100个坐标框

backbone:首先通过卷积得到图片的patch向量,加入位置编码,输入到encoder中


输出的匹配:对于下面两个图,匈牙利匹配完成,按照LOSS最小的组合,两个为前景,剩下98个都是背景

如下图所示,即使图片有所遮挡,注意力机制依旧能够提取到关注的点
为了使decoder每一层都学习到比较优的参数,decoder每一层都计算损失
100个queries的作用:
论文中可视化了其中20个,绿色是小物体,红蓝是大物体
基本描述了各个位置都需要关注,而且它们还是各不相同的
