生成用于目标检测任务的合成图像教程:使用Blender、Python和3D资产
缺少足够的训练数据是当前深度学习面临的一个主要问题。自动生成带有注释的合成图像是计算机视觉任务的一个有前途的解决方案。本文将首先概述合成图像数据的一些图像生成技术,然后生成一个无需手动注释的训练数据集,并使用它来训练一个Faster R-CNN目标检测模型。最后,我们将在真实图像上测试我们训练的模型。
理论上,合成图像是完美的。您可以生成几乎无限数量的图像,而且不需要任何手动注释。然而,合成图像存在一个称为仿真到真实(sim-to-real)领域间隙的问题。
最简单的合成训练图像生成方法之一是切割和粘贴方法。这种技术需要一些真实图像,从中切出要识别的对象,然后将这些对象粘贴到随机背景图像上,生成大量新的训练图像。
另一种方法是尽可能地渲染出真实感图像,使用高质量的3D模型和纹理,计算密集型渲染引擎来模拟真实光照,并进行物体放置的物理模拟。
领域随机化的思想是使虚拟训练环境尽可能随机。由于生成的每个训练图像都不同,真实世界的图像看起来就像是我们训练数据的另一种变体。
我们将使用Blender,这是一款非常受欢迎的免费和开源软件。它有一个叫做Cycles的渲染引擎,我们可以用它来生成3D模型的照片级真实渲染图像。它还有一个Python API,我们可以用它来自动生成大量图像,包括每个图像的注释。
首先,下载并安装Blender。然后,克隆blender-gen仓库,这是一个开源工具,专为研究目的创建,以尝试不同特性。
首先,需要我们要检测的对象的主要3D模型。可以从ambientCG.com和polyhaven.com下载免费使用并在Creative Commons CC0 1.0通用许可下授权的资产。
随机图像被用作我们渲染的3D模型的背景。可以使用任意您喜欢的图像。通常使用COCO图像数据集的2017验证图像。
照明可以通过使用高动态范围(HDR)图像进行基于图像的照明来简单设置。HDR图像提供真实的照明和反射,从而实现3D模型的照片级真实渲染。
通过编辑config.py文件进行配置。之后,运行Blender将创建一个包含我们的3D苹果模型、一些干扰物体、虚拟相机、HDRI照明和随机背景图像的3D场景。
现在我们拥有了由图像和边界框注释组成的COCO数据格式的合成数据集,我们可以训练一个目标检测模型。为了验证目的,我使用不同的随机种子生成了额外的100张图像。
本教程展示了如何使用Blender和Python生成训练图像,进而训练一个目标检测模型,而不需要任何手动注释工作。尽管存在仿真到真实的领域间隙,但通过在少量真实图像上微调基于合成模型,可以很好地缩小这一间隙。