• 【计算机视觉40例】案例26:姿势识别


    导读】本文是专栏《计算机视觉40例简介》的第26个案例《姿势识别》。该专栏简要介绍李立宗主编《计算机视觉40例——从入门到深度学习(OpenCV-Python)》一书的40个案例。

    目前,该书已经在电子工业出版社出版,大家可以在京东、淘宝、当当等平台购买。

    大家可以在公众号“计算机视觉之光”回复关键字【案例26】获取本文案例的源代码及使用的测试图片等资料。

    针对本书40个案例的每一个案例,分别录制了介绍视频。如果嫌看文字版麻烦,可以关注公众号“计算机视觉之光”直接观看视频介绍版。

    本文简要介绍了本案例的一些基础知识,更详细的理论介绍、代码实现等内容请参考《计算机视觉40例简介》第24章《深度学习应用实践》以获取更详细信息。

    姿势识别是指能够识别出图像中人体的姿势,它在人机交互、体育、健身、动作采集、自动驾驶等领域具有广阔的应用前景。

    OpenPose人体姿态识别项目是美国卡耐基梅隆大学(CMU)基于卷积神经网络和监督学习并以caffe为框架开发的开源库,是首个基于深度学习的实时多人二维姿态估计应用。它可以实现人体动作、面部表情、手指运动等姿态估计。它不仅适用于单人,同时还能针对多人进行姿势识别。

    OpenPose的总览图如图1所示,其中:

    1. 图(a)Input Image是原始输入图像。
    2. 图(b) Part confidence maps,简称PCMs,是关键点热力图,它用来表征关键的位置信息。假设需要输出人体的18个关键点信息,那么PCM会增加一个背景信息,输出共计19个信息。输出背景一方面增加了一个监督信息,有利于网络的学习;另一方面背景输出可以作为下一个阶段的输入,有利于下一个阶段获得更好的语义信息。
    3. 图(c) Part Affinity Fields,简称PAFs,通常翻译为关键点的亲和力场,它用来描述不同关键点之间的亲和力。同一个人的不同关节之间,具有较强的亲和力;而不同人之间的关节,亲和力就较弱。OpenPose中,采用bottom-up的姿态估计网络,在检测关节时,直接检测出所有的关节,而并不会对关节属于哪个人进行区分。接下来,根据关节之间的亲和力,对关节进行划分。简单来说,将亲和力强的关节划分为同一个人。
    4. 图(d) Bipartite Matching,二分匹配。通过PAF输出,推断出身体部位的位置,通过一组没有其他信息的身体部位把它们解析成不同的人。
    5. 图(e) Parsing Results是解析结果。将检测到的同一个人的关节进行拼接,得到解析结果。

     

    图1 流程图

    其结构如图2所示,它第1个阶段预测PAFs(Lt),第2个阶段预测PCMs(St)。它们的终端使用的是3层3×3大小的卷积核。

     

    图2  网络结构

    核心编写代码如下:

    1. while cv2.waitKey(1) < 0:
    2. hasFrame, frame = cap.read()
    3. H, W =frame.shape[:2]
    4. blob = cv2.dnn.blobFromImage(frame, 1.0, (368, 368), (127.5, 127.5, 127.5), swapRB=True, crop=False)
    5. net.setInput(blob)
    6. out = net.forward()
    7. print(out.shape)
    8. # out[0]:图像索引。
    9. # out[1]: 关键点的索引。关键点热力图和部件亲和力图的置信度
    10. # out[2]: 第3维是输出图的高度。
    11. # out[3]: 第4个维度是输出图的宽度。
    12. #========核心步骤1:确定关键部位(关键点)=============
    13. out = out[:, :19, :, :] #仅仅需要前19个(0~18)
    14. outH = out.shape[2] #out的高度height
    15. outW = out.shape[3] #out的宽度width
    16. points = [] #关键点
    17. print(points)
    18. for i in range(len(BODY_PARTS)):
    19. #身体对应部位的热图切片
    20. heatMap = out[0, i, :, :]
    21. # 取最值
    22. _, confidence, _, point = cv2.minMaxLoc(heatMap)
    23. # 将out中关键点映射到原始图像image上
    24. px , py = point[:2]
    25. x = ( px / outW ) * W
    26. y = ( py / outH ) * H
    27. # 仅将置信度大于0.2的关键点保留,其余的值为“None”。
    28. # 这里需要额外注意,不是仅仅保留置信度大于0.2的,同时将小于0.2的值设置为None
    29. # 后续判断需要借助None完成
    30. points.append((int(x), int(y)) if confidence > 0.2 else None)
    31. # print(points) #观察一下points的情况,包含点和None两种值
    32. # ========核心步骤2:绘制可能的姿势对================
    33. for posePair in POSE_PAIRS: #逐个判断姿势对是否存在
    34. print("=============")
    35. partStart,partEnd = posePair[:2] #取出姿势对中的两个关键点(关键部位)
    36. idStart = BODY_PARTS[partStart] #取出姿势对中第1个关键部位的索引值
    37. idEnd = BODY_PARTS[partEnd] #取出姿势对中第2个关键部位的索引值
    38. print(partStart,partEnd,idStart,idEnd,points[idStart] , points[idEnd])
    39. # 判断当前姿势对中的两个部位是否被检测到,如果检测到,将其绘制出来
    40. # 通过判断当前姿势对中的两个关键部位是否在points中实现
    41. if points[idStart] and points[idEnd]:
    42. cv2.line(frame, points[idStart], points[idEnd], (0, 255, 0), 3)
    43. cv2.ellipse(frame, points[idStart], (3, 3), 0, 0, 360, (0, 0, 255), cv2.FILLED)
    44. cv2.ellipse(frame, points[idEnd], (3, 3), 0, 0, 360, (0, 0, 255), cv2.FILLED)
    45. # ==========显示最终结果===================
    46. cv2.imshow('result', frame)

    运行程序,如图3会实时显示当前摄像头采集到的视频的姿势识别结果。

    图3  识别结果

    欢迎大家阅读《计算机视觉40例——从入门到深度学习(OpenCV-Python)》一书中第24章《深度学习应用实践》获取详细内容。

    《计算机视觉40例——从入门到深度学习(OpenCV-Python)》在介绍Python基础、OpenCV基础、计算机视觉理论基础、深度学习理论的基础上,介绍了计算机视觉领域内具有代表性的40个典型案例。这些案例中,既有传统的案例(数字识别、答题卡识别、物体计数、缺陷检测、手势识别、隐身术、以图搜图、车牌识别、图像加密、指纹识别等),也有深度学习案例(图像分类、风格迁移、姿势识别、实例分割等),还有人脸识别方面的案例(表情识别、驾驶员疲劳监测、识别性别与年龄等)。

     

     

  • 相关阅读:
    Java创建自定义注解所需要使用的几个元注解
    什么是PaaS平台?
    ③、企业快速开发平台Spring Cloud之HTML 属性
    C语言编程
    基于Caffeine再次封装的本地缓存工具
    Spring Cloud Alibaba
    leetcode:850. 矩形面积 II【扫描线 + 可重叠的累计长度差分数组】
    springCloud笔记(狂神)
    spring boot学习第十三篇:使用spring security控制权限
    后缀系列
  • 原文地址:https://blog.csdn.net/superdont/article/details/126265126