• 助力服务智能医疗检测,基于yolov5开发构建结直肠息肉检测系统,实践训练n/s/m不同量级模型,对比性能结果


    将人工智能技术应用于众多的生活真实场景中是一件很有前景的事情,在我前面的博文中已经有不少的相关的开发实践,应用于医学领域也是一个非常重要的细分分支领域,在前面的博文中也有一些实践,感兴趣的话可以自行移步阅读。

    《服务医学,基于目标检测模型实现细胞检测识别》  细胞检测计数

    《基于YOLOv5开发构建荧光染色条件下膀胱脱落细胞检测识别分析系统》  细胞检测识别

    总体来讲,医学相关的项目主要是偏向于微观领域,也就是细胞相关的检测识别计数,这里本文的主要目的是尝试将yolov5这一检测模型应用到结直肠息肉智能自动化检测领域中,探索后续智能化医疗检测的可行性。首先看下效果图:

     简单看下数据集,这里数据集我主要分为了两组,一组小批量的数据集,一组加入了增强处理组件规模稍大的数据集,如下所示:

     标注数据如下所示:

     针对模型,这里选用的是yolov5最为轻量级的三款模型:n、s和m,模型详情文件如下:

    【n】

    1. # YOLOv5 🚀 by Ultralytics, GPL-3.0 license
    2. # Parameters
    3. nc: 1 # number of classes
    4. depth_multiple: 0.33 # model depth multiple
    5. width_multiple: 0.25 # layer channel multiple
    6. anchors:
    7. - [10,13, 16,30, 33,23] # P3/8
    8. - [30,61, 62,45, 59,119] # P4/16
    9. - [116,90, 156,198, 373,326] # P5/32
    10. # Backbone
    11. backbone:
    12. # [from, number, module, args]
    13. [[-1, 1, Conv, [64, 6, 2, 2]], # 0-P1/2
    14. [-1, 1, Conv, [128, 3, 2]], # 1-P2/4
    15. [-1, 3, C3, [128]],
    16. [-1, 1, Conv, [256, 3, 2]], # 3-P3/8
    17. [-1, 6, C3, [256]],
    18. [-1, 1, Conv, [512, 3, 2]], # 5-P4/16
    19. [-1, 9, C3, [512]],
    20. [-1, 1, Conv, [1024, 3, 2]], # 7-P5/32
    21. [-1, 3, C3, [1024]],
    22. [-1, 1, SPPF, [1024, 5]], # 9
    23. ]
    24. # Head
    25. head:
    26. [[-1, 1, Conv, [512, 1, 1]],
    27. [-1, 1, nn.Upsample, [None, 2, 'nearest']],
    28. [[-1, 6], 1, Concat, [1]], # cat backbone P4
    29. [-1, 3, C3, [512, False]], # 13
    30. [-1, 1, Conv, [256, 1, 1]],
    31. [-1, 1, nn.Upsample, [None, 2, 'nearest']],
    32. [[-1, 4], 1, Concat, [1]], # cat backbone P3
    33. [-1, 3, C3, [256, False]], # 17 (P3/8-small)
    34. [-1, 1, Conv, [256, 3, 2]],
    35. [[-1, 14], 1, Concat, [1]], # cat head P4
    36. [-1, 3, C3, [512, False]], # 20 (P4/16-medium)
    37. [-1, 1, Conv, [512, 3, 2]],
    38. [[-1, 10], 1, Concat, [1]], # cat head P5
    39. [-1, 3, C3, [1024, False]], # 23 (P5/32-large)
    40. [[17, 20, 23], 1, Detect, [nc, anchors]], # Detect(P3, P4, P5)
    41. ]

    【s】

    1. # YOLOv5 🚀 by Ultralytics, GPL-3.0 license
    2. # Parameters
    3. nc: 1 # number of classes
    4. depth_multiple: 0.33 # model depth multiple
    5. width_multiple: 0.50 # layer channel multiple
    6. anchors:
    7. - [10,13, 16,30, 33,23] # P3/8
    8. - [30,61, 62,45, 59,119] # P4/16
    9. - [116,90, 156,198, 373,326] # P5/32
    10. #Backbone
    11. backbone:
    12. # [from, number, module, args]
    13. [[-1, 1, Conv, [64, 6, 2, 2]], # 0-P1/2
    14. [-1, 1, Conv, [128, 3, 2]], # 1-P2/4
    15. [-1, 3, C3, [128]],
    16. [-1, 1, Conv, [256, 3, 2]], # 3-P3/8
    17. [-1, 6, C3, [256]],
    18. [-1, 1, Conv, [512, 3, 2]], # 5-P4/16
    19. [-1, 9, C3, [512]],
    20. [-1, 1, Conv, [1024, 3, 2]], # 7-P5/32
    21. [-1, 3, C3, [1024]],
    22. [-1, 1, SPPF, [1024, 5]], # 9
    23. ]
    24. #Head
    25. head:
    26. [[-1, 1, Conv, [512, 1, 1]],
    27. [-1, 1, nn.Upsample, [None, 2, 'nearest']],
    28. [[-1, 6], 1, Concat, [1]], # cat backbone P4
    29. [-1, 3, C3, [512, False]], # 13
    30. [-1, 1, Conv, [256, 1, 1]],
    31. [-1, 1, nn.Upsample, [None, 2, 'nearest']],
    32. [[-1, 4], 1, Concat, [1]], # cat backbone P3
    33. [-1, 3, C3, [256, False]], # 17 (P3/8-small)
    34. [-1, 1, Conv, [256, 3, 2]],
    35. [[-1, 14], 1, Concat, [1]], # cat head P4
    36. [-1, 3, C3, [512, False]], # 20 (P4/16-medium)
    37. [-1, 1, Conv, [512, 3, 2]],
    38. [[-1, 10], 1, Concat, [1]], # cat head P5
    39. [-1, 3, C3, [1024, False]], # 23 (P5/32-large)
    40. [[17, 20, 23], 1, Detect, [nc, anchors]], # Detect(P3, P4, P5)
    41. ]

     【m】

    1. # YOLOv5 🚀 by Ultralytics, GPL-3.0 license
    2. # Parameters
    3. nc: 1 # number of classes
    4. depth_multiple: 0.67 # model depth multiple
    5. width_multiple: 0.75 # layer channel multiple
    6. anchors:
    7. - [10,13, 16,30, 33,23] # P3/8
    8. - [30,61, 62,45, 59,119] # P4/16
    9. - [116,90, 156,198, 373,326] # P5/32
    10. # Backbone
    11. backbone:
    12. # [from, number, module, args]
    13. [[-1, 1, Conv, [64, 6, 2, 2]], # 0-P1/2
    14. [-1, 1, Conv, [128, 3, 2]], # 1-P2/4
    15. [-1, 3, C3, [128]],
    16. [-1, 1, Conv, [256, 3, 2]], # 3-P3/8
    17. [-1, 6, C3, [256]],
    18. [-1, 1, Conv, [512, 3, 2]], # 5-P4/16
    19. [-1, 9, C3, [512]],
    20. [-1, 1, Conv, [1024, 3, 2]], # 7-P5/32
    21. [-1, 3, C3, [1024]],
    22. [-1, 1, SPPF, [1024, 5]], # 9
    23. ]
    24. # Head
    25. head:
    26. [[-1, 1, Conv, [512, 1, 1]],
    27. [-1, 1, nn.Upsample, [None, 2, 'nearest']],
    28. [[-1, 6], 1, Concat, [1]], # cat backbone P4
    29. [-1, 3, C3, [512, False]], # 13
    30. [-1, 1, Conv, [256, 1, 1]],
    31. [-1, 1, nn.Upsample, [None, 2, 'nearest']],
    32. [[-1, 4], 1, Concat, [1]], # cat backbone P3
    33. [-1, 3, C3, [256, False]], # 17 (P3/8-small)
    34. [-1, 1, Conv, [256, 3, 2]],
    35. [[-1, 14], 1, Concat, [1]], # cat head P4
    36. [-1, 3, C3, [512, False]], # 20 (P4/16-medium)
    37. [-1, 1, Conv, [512, 3, 2]],
    38. [[-1, 10], 1, Concat, [1]], # cat head P5
    39. [-1, 3, C3, [1024, False]], # 23 (P5/32-large)
    40. [[17, 20, 23], 1, Detect, [nc, anchors]], # Detect(P3, P4, P5)
    41. ]

    均在默认设置下进行100次epoch的迭代计算,这里首先在小批量数据集上依次看下结果详情:

    【n】

     【s】

     【m】

     从结果数据上直观来看:这里随着参数里的增大模型的精度有所提升。

    这里为了直观整体对比不同系列模型的性能,绘制来的对比分析图表,如下所示:

    F1值

     【loss曲线】

     【precision曲线】

     【recall曲线】

     接下来,我们基于常用的增强方法实现原始数据的扩增,来重新进行n、s和m三款模型的训练构建,同样依次来看下对应的结果数据如下所示:

    【n】

     【s】

     【m】

     可能数据增强造成了一定程度上的数据泄露,这里可以看到:非常明显的效果提升,不过从另一个角度来分析,数据量增大对于模型性能的提升是有正向作用的。

    这里为了直观整体对比不同系列模型的性能,绘制来的对比分析图表,如下所示:

    【F1值】

     【loss曲线】

     【precision曲线】

     【recall曲线】

    感兴趣的话也可以试试看!

  • 相关阅读:
    附录A 程序员工作面试的秘密
    golang 函数式编程库samber/mo使用: Future
    Chief Ray and Margin Ray and Principle Ray(主光线和边缘光线)
    unity实现Perlin噪声
    暂存更改 切换分支 git
    RocketMQ 之 IoT 消息解析:物联网需要什么样的消息技术?
    SwissArmyTransformer瑞士军刀工具箱使用手册
    第四章:Unix时间
    2022年申请牛剑入学的IB学霸们的成绩多高?
    Anaconda和Conda的使用
  • 原文地址:https://blog.csdn.net/Together_CZ/article/details/130846572