Fig 1,交通拥挤驾驶场景中固定预测模型和目标检测模型的比较。通过我们提出的模型检测到的显着对象,该对象可以呈现驾驶员在这些显着区域中注意的内容和原因。
Fig 2,通过比较 YOLOv3 和 ID-YOLO,检测与当前驾驶情况密切相关的关键对象更有价值。
TABLE 1,显著性注意和物体检测数据集的比较
Fig 3,使用两个规则来确定在Ft帧图像中是否标记了一个对象:
提出了一种改进的网络,方法是增加预测规模并减少YOLO (称为ID- YOLO) 的网络深度,以预测驱动程序固定的显着对象。
Fig 4,用红色标记了剩余网络单元的减少数量和增加的特征检测块:
Table II,ID-YOLO结构的更多细节,444个卷积层
增强的眼动跟踪对象检测 (ETOD) 数据集
Fig 5,与基于YOLOv3的不同骨干车型相比,我们的车型在黑暗路况下表现出最佳的检测性能,在多次检查和车辆突然发生 (如超车) 的情况下,误检或漏检最少。
Fig 6,ID-YOLO的检测结果与固定标签几乎相同
*TABLE III,虽然YOLOv3-tiny的FPS最高,但检测精度最低。我们得出的结论是,与其他模型相比,所提出的ID-YOLO体系结构可以更准确,更快速地预测显着对象。
TABLE IV,在YOLOv3的基础上从3到5个不同尺度的目标检测层数量增加的效果,结果表明可以有效地提高检测精度;
TABLE V,不同的特征提取层数对检测速度的影响,与ID-YOLO-53相比,ID-YOLO-33具有更高的FPS和更小的模型尺寸,这表明ID-YOLO的减少部分对提高检测速度是有效的
ID-YOLO比YOLOv3-416的精确度高