• 【Python&语义分割】Segment Anything(SAM)模型全局语义分割代码+掩膜保存(二)


    我上篇博文分享了Segment Anything(SAM)模型的基本操作,这篇给大家分享下官方的整张图片的语义分割代码(全局),同时我还修改了一部分支持掩膜和叠加影像的保存。

    1 Segment Anything介绍

    1.1 概况

            Meta AI 公司的 Segment Anything 模型是一项革命性的技术,该模型能够根据文本指令或图像识别,实现对任意物体的识别和分割。这一模型的推出,将极大地推动计算机视觉领域的发展,并使得图像分割技术进一步普及化。

            论文地址:https://arxiv.org/abs/2304.02643

            项目地址:Segment Anything

    1.2 使用方法

            具体使用方法上,Segment Anything 提供了简单易用的接口,用户只需要通过提示,即可进行物体识别和分割操作。例如在图片处理中,用户可以通过 Hover & Click 或 Box 等方式来选取物体。值得一提的是,SAM 还支持通过上传自己的图片进行物体分割操作,提取物体用时仅需数秒。

            总的来说,Meta AI 的 Segment Anything 模型为我们提供了一种全新的物体识别和分割方式,其强大的泛化能力和广泛的应用前景将极大地推动计算机视觉领域的发展。未来,我们期待看到更多基于 Segment Anything 的创新应用,以及在科学图像分析、照片编辑等领域的广泛应用。

    ​​2 模型代码+注释

    2.1 模型预加载

            我这里将掩膜生成的函数单独拿出来了,因为里面集成了掩膜保存的代码。所以先给大家看预处理部分。

    1. try:
    2. image = cv2.imread(image_path) # 读取的图像以NumPy数组的形式存储在变量image中
    3. print("[%s]正在转换图片格式......" % datetime.now().strftime('%Y-%m-%d %H:%M:%S'))
    4. image = cv2.cvtColor(image, cv2.COLOR_BGR2RGB) # 将图像从BGR颜色空间转换为RGB颜色空间,还原图片色彩(图像处理库所认同的格式)
    5. print("[%s]正在初始化模型参数......" % datetime.now().strftime('%Y-%m-%d %H:%M:%S'))
    6. except:
    7. print("图片打开失败!请检查路径!")
    8. pass
    9. sys.exit()
    10. sys.path.append("..") # 将当前路径上一级目录添加到sys.path列表,这里模型使用绝对路径所以这行没啥用
    11. sam_checkpoint = model_path # 定义模型路径
    12. sam = sam_model_registry[model_type](checkpoint=sam_checkpoint)
    13. sam.to(device=device) # 定义模型参数
    14. mask_generator = SamAutomaticMaskGenerator(model=sam, # 用于掩膜预测的SAM模型
    15. points_per_side=32, # 图像一侧的采样点数,总采样点数是一侧采样点数的平方,点数给的越多,分割越细
    16. # points_per_batch=64, # 设置模型同时运行的点的数量。更高的数字可能会更快,但会使用更多的GPU内存
    17. pred_iou_thresh=0.86, # 滤波阈值,在[0,1]中,使用模型的预测掩膜质量0.86
    18. stability_score_thresh=0.92,
    19. # 滤波阈值,在[0,1]中,使用掩码在用于二进制化模型的掩码预测的截止点变化下的稳定性0.92
    20. # stability_score_offset=1.0, # 计算稳定性分数时,对截止点的偏移量
    21. # box_nms_thresh=0.7, # 非最大抑制用于过滤重复掩码的箱体IoU截止点
    22. crop_n_layers=1, # 如果>0,蒙版预测将在图像的裁剪上再次运行。设置运行的层数,其中每层有2**i_layer的图像裁剪数1
    23. # crop_nms_thresh=0.7, # 非最大抑制用于过滤不同作物之间的重复掩码的箱体IoU截止值
    24. # crop_overlap_ratio=512 / 1500, # 设置作物重叠的程度
    25. crop_n_points_downscale_factor=2,
    26. # 在图层n中每面采样的点数被crop_n_points_downscale_factor**n缩减2
    27. # point_grids=None, # 用于取样的明确网格的列表,归一化为[0,1]
    28. min_mask_region_area=100,
    29. # 如果>0,后处理将被应用于移除面积小于min_mask_region_area的遮罩中的不连接区域和孔。需要opencv。50
    30. # output_mode="binary_mask" # 掩模的返回形式。
    31. # 可以是’binary_mask’, ‘uncompressed_rle’, 或者’coco_rle’。
    32. # coco_rle’需要pycocotools。对于大的分辨率,'binary_mask’可能会消耗大量的内存
    33. ) # 激活函数

    2.2 模型预测代码

    1. masks = mask_generator.generate(image) # 类别掩膜提取(包含所有的,可按照索引查看)
    2. # ---------------------------masks输出内容---------------------------
    3. # segmentation : np的二维数组,为二值的mask图片
    4. # area : mask的像素面积
    5. # bbox : mask的外接矩形框,为X Y WH格式
    6. # predicted_iou : 该mask的质量(模型预测出的与真实框的iou)
    7. # point_coords : 用于生成该mask的point输入
    8. # stability_score : mask质量的附加指标
    9. # crop_box : 用于以X Y WH格式生成此遮罩的图像裁剪
    10. # ------------------------------------------------------------------
    11. print("[%s]正在绘制图片......" % datetime.now().strftime('%Y-%m-%d %H:%M:%S'))
    12. plt.figure(figsize=(20, 20)) # 创建一个新的图形窗口,设置其大小为10x10英寸
    13. plt.imshow(image) # 使用imshow函数在创建的图形窗口中显示图像
    14. print("[%s]正在制作掩膜......" % datetime.now().strftime('%Y-%m-%d %H:%M:%S'))
    15. print("【结果保存阶段】")
    16. show_mask_auto(masks, out_path, out_path1)
    17. plt.axis('on') # 开启图像坐标轴,使得图像下的像素坐标可以显示出来
    18. print("[%s]正在保存叠加结果......" % datetime.now().strftime('%Y-%m-%d %H:%M:%S'))
    19. plt.savefig(out_image_path, dpi=300)
    20. plt.show() # 显示已经创建的图形窗口和其中的内容

    2.3 掩膜生成+保存代码

            我这里在官方的掩膜生成的函数的基础上,加入了两段保存数据的代码。一个是彩色的mask(叠加显示的mask),一个是单波段的mask(DN值代表序号)。

            大家在使用这个函数时,将这段放在2.1,2.2展示的代码前面即可。

    1. def show_mask_auto(masks_data, out_mask_path, out_path_01):
    2. """
    3. :param masks_data: 掩膜数据
    4. :param out_mask_path: 输出彩色掩膜
    5. :param out_path_01: 输出单波段掩膜
    6. :return: None
    7. """
    8. if len(masks_data) == 0:
    9. return
    10. sorted_masks_data = sorted(masks_data, key=(lambda x: x['area']), reverse=True) # 按照面积大小降序排列
    11. ax = plt.gca() # 获取当前的轴(axes)
    12. ax.set_autoscale_on(False) # 关闭轴的自动缩放功能
    13. img = np.ones((sorted_masks_data[0]['segmentation'].shape[0], sorted_masks_data[0]['segmentation'].shape[1], 4))
    14. # 创建了一个新的三维数组img。数组的形状是基于segmentation']的形状,其中四个通道通常代表红色、绿色、蓝色和透明度(RGBA)
    15. img[:, :, 3] = 0 # 将新创建的图像的第四个通道(也就是透明度通道)设置为0
    16. img_raster = np.zeros((sorted_masks_data[0]['segmentation'].shape[0],
    17. sorted_masks_data[0]['segmentation'].shape[1]))
    18. # 创建一个二维数组,用于保存掩膜做栅格转面
    19. j = 1
    20. for sorted_mask_data in sorted_masks_data:
    21. # 循环所有类别的掩膜
    22. m = sorted_mask_data['segmentation']
    23. # 获取当前类别的二值mask图片
    24. color_mask = np.concatenate([np.random.random(3), [0.65]])
    25. # 随机生成的RGB颜色,它的形状为(3,),0.65表示颜色的透明度。
    26. img[m] = color_mask
    27. # 将颜色赋予图片的数组
    28. img_raster[m] = j
    29. # 给掩膜赋值
    30. j += 1
    31. """for i in range(0, len(masks_data)):
    32. # 循环所有类别的掩膜
    33. rect = patches.Rectangle((masks_data[i]['bbox'][0], masks_data[i]['bbox'][1]), masks_data[i]['bbox'][2],
    34. masks_data[i]['bbox'][3], edgecolor=tuple(random.uniform(0, 1) for _ in range(3)),
    35. facecolor='none', linewidth=2) # 绘制类别的外接矩形框
    36. ax.add_patch(rect) # 将矩形添加到ax对象中"""
    37. plt.imshow(img, alpha=0.8)
    38. print("[%s]正在保存类别掩膜......" % datetime.now().strftime('%Y-%m-%d %H:%M:%S'))
    39. driver = gdal.GetDriverByName('GTiff') # 载入数据驱动,用于存储内存中的数组
    40. ds_result = driver.Create(out_mask_path, sorted_masks_data[0]['segmentation'].shape[1],
    41. sorted_masks_data[0]['segmentation'].shape[0], bands=4, eType=gdal.GDT_Float64)
    42. # 创建一个数组,宽高为原始尺寸
    43. for i in range(3):
    44. ds_result.GetRasterBand(i+1).SetNoDataValue(0) # 将无效值设为0
    45. ds_result.GetRasterBand(i+1).WriteArray(img[:, :, i]) # 将结果写入数组
    46. ds_result_raster = driver.Create(out_path_01, sorted_masks_data[0]['segmentation'].shape[1],
    47. sorted_masks_data[0]['segmentation'].shape[0], bands=1, eType=gdal.GDT_Float64)
    48. # ds_result.SetGeoTransform(ds_geo) # 导入仿射地理变换参数
    49. # ds_result.SetProjection(ds_prj) # 导入投影信息
    50. ds_result_raster.GetRasterBand(1).SetNoDataValue(0) # 将无效值设为0
    51. ds_result_raster.GetRasterBand(1).WriteArray(img_raster) # 将结果写入数组
    52. del ds_result
    53. del ds_result_raster

    3 完整代码

    1. # -*- coding: utf-8 -*-
    2. """
    3. @Time : 2023/10/8 10:15
    4. @Auth : RS迷途小书童
    5. @File :Segment Anything Auto.py
    6. @IDE :PyCharm
    7. @Purpose:Segment Anything Model自动全局语义分割
    8. """
    9. import sys
    10. import cv2
    11. import random
    12. import numpy as np
    13. from osgeo import gdal
    14. from datetime import datetime
    15. import matplotlib.pyplot as plt
    16. import matplotlib.patches as patches
    17. from segment_anything import sam_model_registry, SamAutomaticMaskGenerator
    18. def SAM_auto(image_path, model_path, model_type, device, out_path, out_path1, out_image_path):
    19. """
    20. :param image_path: 输入需要分割的影像
    21. :param model_path: 输入模型路径
    22. :param model_type: 输入模型类型
    23. :param device: 输入cpu or cuda
    24. :param out_path: 输出彩色掩膜文件
    25. :param out_path1: 输出单波段掩膜文件
    26. :param out_image_path: 输出叠加图片
    27. :return: None
    28. """
    29. def show_mask_auto(masks_data, out_mask_path, out_path_01):
    30. """
    31. :param masks_data: 掩膜数据
    32. :param out_mask_path: 输出彩色掩膜
    33. :param out_path_01: 输出单波段掩膜
    34. :return: None
    35. """
    36. if len(masks_data) == 0:
    37. return
    38. sorted_masks_data = sorted(masks_data, key=(lambda x: x['area']), reverse=True) # 按照面积大小降序排列
    39. ax = plt.gca() # 获取当前的轴(axes)
    40. ax.set_autoscale_on(False) # 关闭轴的自动缩放功能
    41. img = np.ones((sorted_masks_data[0]['segmentation'].shape[0], sorted_masks_data[0]['segmentation'].shape[1], 4))
    42. # 创建了一个新的三维数组img。数组的形状是基于segmentation']的形状,其中四个通道通常代表红色、绿色、蓝色和透明度(RGBA)
    43. img[:, :, 3] = 0 # 将新创建的图像的第四个通道(也就是透明度通道)设置为0
    44. img_raster = np.zeros((sorted_masks_data[0]['segmentation'].shape[0],
    45. sorted_masks_data[0]['segmentation'].shape[1]))
    46. # 创建一个二维数组,用于保存掩膜做栅格转面
    47. j = 1
    48. for sorted_mask_data in sorted_masks_data:
    49. # 循环所有类别的掩膜
    50. m = sorted_mask_data['segmentation']
    51. # 获取当前类别的二值mask图片
    52. color_mask = np.concatenate([np.random.random(3), [0.65]])
    53. # 随机生成的RGB颜色,它的形状为(3,),0.65表示颜色的透明度。
    54. img[m] = color_mask
    55. # 将颜色赋予图片的数组
    56. img_raster[m] = j
    57. # 给掩膜赋值
    58. j += 1
    59. """for i in range(0, len(masks_data)):
    60. # 循环所有类别的掩膜
    61. rect = patches.Rectangle((masks_data[i]['bbox'][0], masks_data[i]['bbox'][1]), masks_data[i]['bbox'][2],
    62. masks_data[i]['bbox'][3], edgecolor=tuple(random.uniform(0, 1) for _ in range(3)),
    63. facecolor='none', linewidth=2) # 绘制类别的外接矩形框
    64. ax.add_patch(rect) # 将矩形添加到ax对象中"""
    65. plt.imshow(img, alpha=0.8)
    66. print("[%s]正在保存类别掩膜......" % datetime.now().strftime('%Y-%m-%d %H:%M:%S'))
    67. driver = gdal.GetDriverByName('GTiff') # 载入数据驱动,用于存储内存中的数组
    68. ds_result = driver.Create(out_mask_path, sorted_masks_data[0]['segmentation'].shape[1],
    69. sorted_masks_data[0]['segmentation'].shape[0], bands=4, eType=gdal.GDT_Float64)
    70. # 创建一个数组,宽高为原始尺寸
    71. for i in range(3):
    72. ds_result.GetRasterBand(i+1).SetNoDataValue(0) # 将无效值设为0
    73. ds_result.GetRasterBand(i+1).WriteArray(img[:, :, i]) # 将结果写入数组
    74. ds_result_raster = driver.Create(out_path_01, sorted_masks_data[0]['segmentation'].shape[1],
    75. sorted_masks_data[0]['segmentation'].shape[0], bands=1, eType=gdal.GDT_Float64)
    76. # ds_result.SetGeoTransform(ds_geo) # 导入仿射地理变换参数
    77. # ds_result.SetProjection(ds_prj) # 导入投影信息
    78. ds_result_raster.GetRasterBand(1).SetNoDataValue(0) # 将无效值设为0
    79. ds_result_raster.GetRasterBand(1).WriteArray(img_raster) # 将结果写入数组
    80. del ds_result
    81. del ds_result_raster
    82. print("【程序准备阶段】")
    83. print("[%s]正在读取图片......" % datetime.now().strftime('%Y-%m-%d %H:%M:%S'))
    84. try:
    85. image = cv2.imread(image_path) # 读取的图像以NumPy数组的形式存储在变量image中
    86. print("[%s]正在转换图片格式......" % datetime.now().strftime('%Y-%m-%d %H:%M:%S'))
    87. image = cv2.cvtColor(image, cv2.COLOR_BGR2RGB) # 将图像从BGR颜色空间转换为RGB颜色空间,还原图片色彩(图像处理库所认同的格式)
    88. print("[%s]正在初始化模型参数......" % datetime.now().strftime('%Y-%m-%d %H:%M:%S'))
    89. except:
    90. print("图片打开失败!请检查路径!")
    91. pass
    92. sys.exit()
    93. sys.path.append("..") # 将当前路径上一级目录添加到sys.path列表,这里模型使用绝对路径所以这行没啥用
    94. sam_checkpoint = model_path # 定义模型路径
    95. sam = sam_model_registry[model_type](checkpoint=sam_checkpoint)
    96. sam.to(device=device) # 定义模型参数
    97. mask_generator = SamAutomaticMaskGenerator(model=sam, # 用于掩膜预测的SAM模型
    98. points_per_side=32, # 图像一侧的采样点数,总采样点数是一侧采样点数的平方,点数给的越多,分割越细
    99. # points_per_batch=64, # 设置模型同时运行的点的数量。更高的数字可能会更快,但会使用更多的GPU内存
    100. pred_iou_thresh=0.86, # 滤波阈值,在[0,1]中,使用模型的预测掩膜质量0.86
    101. stability_score_thresh=0.92,
    102. # 滤波阈值,在[0,1]中,使用掩码在用于二进制化模型的掩码预测的截止点变化下的稳定性0.92
    103. # stability_score_offset=1.0, # 计算稳定性分数时,对截止点的偏移量
    104. # box_nms_thresh=0.7, # 非最大抑制用于过滤重复掩码的箱体IoU截止点
    105. crop_n_layers=1, # 如果>0,蒙版预测将在图像的裁剪上再次运行。设置运行的层数,其中每层有2**i_layer的图像裁剪数1
    106. # crop_nms_thresh=0.7, # 非最大抑制用于过滤不同作物之间的重复掩码的箱体IoU截止值
    107. # crop_overlap_ratio=512 / 1500, # 设置作物重叠的程度
    108. crop_n_points_downscale_factor=2,
    109. # 在图层n中每面采样的点数被crop_n_points_downscale_factor**n缩减2
    110. # point_grids=None, # 用于取样的明确网格的列表,归一化为[0,1]
    111. min_mask_region_area=100,
    112. # 如果>0,后处理将被应用于移除面积小于min_mask_region_area的遮罩中的不连接区域和孔。需要opencv。50
    113. # output_mode="binary_mask" # 掩模的返回形式。
    114. # 可以是’binary_mask’, ‘uncompressed_rle’, 或者’coco_rle’。
    115. # coco_rle’需要pycocotools。对于大的分辨率,'binary_mask’可能会消耗大量的内存
    116. ) # 激活函数
    117. print("【模型预测阶段】")
    118. print("[%s]正在分割图片......" % datetime.now().strftime('%Y-%m-%d %H:%M:%S'))
    119. masks = mask_generator.generate(image) # 类别掩膜提取(包含所有的,可按照索引查看)
    120. # ---------------------------masks输出内容---------------------------
    121. # segmentation : np的二维数组,为二值的mask图片
    122. # area : mask的像素面积
    123. # bbox : mask的外接矩形框,为X Y WH格式
    124. # predicted_iou : 该mask的质量(模型预测出的与真实框的iou)
    125. # point_coords : 用于生成该mask的point输入
    126. # stability_score : mask质量的附加指标
    127. # crop_box : 用于以X Y WH格式生成此遮罩的图像裁剪
    128. # ------------------------------------------------------------------
    129. print("[%s]正在绘制图片......" % datetime.now().strftime('%Y-%m-%d %H:%M:%S'))
    130. plt.figure(figsize=(20, 20)) # 创建一个新的图形窗口,设置其大小为10x10英寸
    131. plt.imshow(image) # 使用imshow函数在创建的图形窗口中显示图像
    132. print("[%s]正在制作掩膜......" % datetime.now().strftime('%Y-%m-%d %H:%M:%S'))
    133. print("【结果保存阶段】")
    134. show_mask_auto(masks, out_path, out_path1)
    135. plt.axis('on') # 开启图像坐标轴,使得图像下的像素坐标可以显示出来
    136. print("[%s]正在保存叠加结果......" % datetime.now().strftime('%Y-%m-%d %H:%M:%S'))
    137. plt.savefig(out_image_path, dpi=300)
    138. plt.show() # 显示已经创建的图形窗口和其中的内容
    139. print("-----------------------------------------语义分割已完成----------------------------------------")
    140. if __name__ == "__main__":
    141. print("\n")
    142. print("--------------------------------------Segment Anything--------------------------------------")
    143. Image_path = r'B:/Personal/satellite.tif' # 分割的影像
    144. Model_path = "G:/Neat Download Manager/Misc/sam_vit_h_4b8939.pth" # 模型路径
    145. Out_mask_path = 'B:/Personal/my_figure1.tif' # 彩色掩膜
    146. Out_mask_path1 = 'B:/Personal/my_figure2.tif' # 二维掩膜用于转矢量
    147. Out_image_path = 'B:/Personal/my_figure3.png' # 叠加结果
    148. Model_type = "vit_h" # 定义模型类型
    149. Device = "cuda" # "cpu" or "cuda"
    150. SAM_auto(Image_path, Model_path, Model_type, Device, Out_mask_path, Out_mask_path1, Out_image_path)
    151. # 图片,模型,类型,算力,彩色掩膜,黑白掩膜,叠加图片

  • 相关阅读:
    Springboot集成activiti,低代码整合平台,智慧审批,前端vue
    RTL8715AH,RTL8715AQ双频WI-FI物联网低功耗SOC
    rust从0开始写项目-03-多样话错误处理
    常用正则表达式
    C++对string进行大小写转换的三种方法
    ES6 入门教程 23 Class 的继承 23.1 简介
    linux下安装jdk
    Nuxt - 超详细环境搭建及创建项目整体流程(create-nuxt-app)
    基于WOA算法的SVDD参数寻优matlab仿真
    ffmpeg 开发笔记
  • 原文地址:https://blog.csdn.net/m0_56729804/article/details/133786388