写在前面:
个人学习之作,不做商用,仅供参考。
能力有限,共同进步。
论文原地址:Multi-Similarity Loss with General Pair Weighting for Deep Metric Learning
是由深圳马龙人工智能研究中心的大佬研究出来的。
- git clone https://github.com/msight-tech/research-ms-loss
- cd reseach-ms-loss
- pip install -r requirements.txt
- python setup.py develop build
数据集下载:
git当中的地址已经过期了,如果直接运行会报错。
这里是最新下载地址 下载数据

这个时候需要在外面新建一个文件目录

mkdir resource/datasets
把下载好的CUB_200_2011.tgz放入该目录下。
tar -zxf CUB_200_2011.tgz
然后执行如下命令
python scripts/split_cub_for_ms_loss.py
按照要求将训练好的模型下载下来,bn_inception-52deb4733.pth
注意的是,你需要修改配置文件。

model path的位置和你放的位置保持一致就行。
然后在文件目录下运行
./scripts/run_cub.sh
这里我报错,提醒我引用地址不正确,
我看了这个启动脚本,核心是tool/main.py,我把main.py拷贝出来了,路径如图所示:

运行结果如图所示。


训练时间约为24分钟。最优的召回率0.65.输出的结果模型在output文件下。

数据集介绍:
这个数据集中有200个种类,每个种类图片约为10-30张不等。
训练过程介绍

我用的是3090,配置如下:
