• Jetsonnano B01 笔记7:Mediapipe与人脸手势识别


    今日继续我的Jetsonnano学习之路,今日学习安装使用的是:MediaPipe  一款开源的多媒体机器学习模型应用框架。可在移动设备、工作站和服务 器上跨平台运行,并支持移动 GPU 加速。
    介绍与程序搬运官方,只是自己的学习记录笔记,同时记录一些自己的操作过程。

    MediaPipe介绍与安装:

    MediaPipe 优点
    1) 支持各种平台和语言,如 IOS Android C++ Python JAVAScript Coral 等。
    2) 速度很快,模型基本可以做到实时运行。
    3) 模型和代码能够实现很高的复用率。
    MediaPipe 缺点
    1) 对于移动端, MediaPipe 略显笨重,需要至少 10M 以上的空间。
    2) 深度依赖于 Tensorflow ,若想更换成其他机器学习框架,需要更改大量代码。
    3) 使用的是静态图,虽然有助于提高效率,但也会导致很难发现错误。

    安装更新 APT 下载列表:

    sudo apt update

    安装 pip

    sudo apt install python3-pip

    更新 pip

    python3 -m pip install --upgrade pip

    传输文件:

    mediapipe传输给Jetson:

    文件下载:https://download.csdn.net/download/qq_64257614/88322416?spm=1001.2014.3001.5503

    在jetson桌面将其拖进文件管理的home目录然后输入终端指令进行安装

    pip3 install mediapipe-0.8.5_cuda102-cp36-cp36m-linux_aarch64.whl

    安装成功提示:

     

     

    MediaPipe使用流程:

    下图是 MediaPipe 的使用流程。其中,实线部分需要自行编写代码,虚线部分则无需编
    写。 MediaPipe 内部已经集成好了 AI 相关的模型和玩法,用户可以利用 MediaPipe 来快速推
    算出实现一个功能所需的框架

    Mediapipe 人脸识别:

    输入指令安装依赖包:

    pip3 install dataclasses

    编写Python程序:

    1. import cv2
    2. import mediapipe as mp
    3. import time
    4. last_time = 0
    5. current_time = 0
    6. fps = 0.0
    7. def show_fps(img):
    8. global last_time, current_time, fps
    9. last_time = current_time
    10. current_time = time.time()
    11. new_fps = 1.0 / (current_time - last_time)
    12. if fps == 0.0:
    13. fps = new_fps if last_time != 0 else 0.0
    14. else:
    15. fps = new_fps * 0.2 + fps * 0.8
    16. fps_text = 'FPS: {:.2f}'.format(fps)
    17. cv2.putText(img, fps_text, (11, 20), cv2.FONT_HERSHEY_PLAIN, 1.0, (32, 32, 32), 4, cv2.LINE_AA)
    18. cv2.putText(img, fps_text, (10, 20), cv2.FONT_HERSHEY_PLAIN, 1.0, (240, 240, 240), 1, cv2.LINE_AA)
    19. return img
    20. mp_face_detection = mp.solutions.face_detection
    21. mp_drawing = mp.solutions.drawing_utils
    22. # For webcam input:
    23. cap = cv2.VideoCapture(0)
    24. with mp_face_detection.FaceDetection(
    25. min_detection_confidence=0.5) as face_detection:
    26. while cap.isOpened():
    27. success, image = cap.read()
    28. if not success:
    29. print("Ignoring empty camera frame.")
    30. # If loading a video, use 'break' instead of 'continue'.
    31. continue
    32. # To improve performance, optionally mark the image as not writeable to
    33. # pass by reference.
    34. image.flags.writeable = False
    35. image = cv2.cvtColor(image, cv2.COLOR_BGR2RGB)
    36. results = face_detection.process(image)
    37. # Draw the face detection annotations on the image.
    38. image.flags.writeable = True
    39. image = cv2.cvtColor(image, cv2.COLOR_RGB2BGR)
    40. if results.detections:
    41. for detection in results.detections:
    42. mp_drawing.draw_detection(image, detection)
    43. # Flip the image horizontally for a selfie-view display.
    44. image = show_fps(cv2.flip(image, 1))
    45. cv2.imshow('MediaPipe Face Detection', image)
    46. if cv2.waitKey(5) & 0xFF == 27:
    47. break
    48. cap.release()

    最后传输python文件,然后输入指令运行,注意放在文件夹中的需要使用cd命令进行目录的跳转

    效果测试:

    Mediapipe人脸识别

    Mediapipe 手势识别:

     编写python程序:

    1. import cv2
    2. import mediapipe as mp
    3. import numpy as np
    4. import time
    5. last_time = 0
    6. current_time = 0
    7. fps = 0.0
    8. def show_fps(img):
    9. global last_time, current_time, fps
    10. last_time = current_time
    11. current_time = time.time()
    12. new_fps = 1.0 / (current_time - last_time)
    13. if fps == 0.0:
    14. fps = new_fps if last_time != 0 else 0.0
    15. else:
    16. fps = new_fps * 0.2 + fps * 0.8
    17. fps_text = 'FPS: {:.2f}'.format(fps)
    18. cv2.putText(img, fps_text, (11, 20), cv2.FONT_HERSHEY_PLAIN, 1.0, (32, 32, 32), 4, cv2.LINE_AA)
    19. cv2.putText(img, fps_text, (10, 20), cv2.FONT_HERSHEY_PLAIN, 1.0, (240, 240, 240), 1, cv2.LINE_AA)
    20. return img
    21. def distance(point_1, point_2):
    22. """
    23. 计算两个点间的距离
    24. :param point_1: 点1
    25. :param point_2: 点2
    26. :return: 两点间的距离
    27. """
    28. return math.sqrt((point_1[0] - point_2[0]) ** 2 + (point_1[1] - point_2[1]) ** 2)
    29. def vector_2d_angle(v1, v2):
    30. """
    31. 计算两向量间的夹角 -pi ~ pi
    32. :param v1: 第一个向量
    33. :param v2: 第二个向量
    34. :return: 角度
    35. """
    36. norm_v1_v2 = np.linalg.norm(v1) * np.linalg.norm(v2)
    37. cos = v1.dot(v2) / (norm_v1_v2)
    38. sin = np.cross(v1, v2) / (norm_v1_v2)
    39. angle = np.degrees(np.arctan2(sin, cos))
    40. return angle
    41. def get_hand_landmarks(img_size, landmarks):
    42. """
    43. 将landmarks从medipipe的归一化输出转为像素坐标
    44. :param img: 像素坐标对应的图片
    45. :param landmarks: 归一化的关键点
    46. :return:
    47. """
    48. w, h = img_size
    49. landmarks = [(lm.x * w, lm.y * h) for lm in landmarks]
    50. return np.array(landmarks)
    51. def hand_angle(landmarks):
    52. """
    53. 计算各个手指的弯曲角度
    54. :param landmarks: 手部关键点
    55. :return: 各个手指的角度
    56. """
    57. angle_list = []
    58. # thumb 大拇指
    59. angle_ = vector_2d_angle(landmarks[3] - landmarks[4], landmarks[0] - landmarks[2])
    60. angle_list.append(angle_)
    61. # index 食指
    62. angle_ = vector_2d_angle(landmarks[0] - landmarks[6], landmarks[7] - landmarks[8])
    63. angle_list.append(angle_)
    64. # middle 中指
    65. angle_ = vector_2d_angle(landmarks[0] - landmarks[10], landmarks[11] - landmarks[12])
    66. angle_list.append(angle_)
    67. # ring 无名指
    68. angle_ = vector_2d_angle(landmarks[0] - landmarks[14], landmarks[15] - landmarks[16])
    69. angle_list.append(angle_)
    70. # pink 小拇指
    71. angle_ = vector_2d_angle(landmarks[0] - landmarks[18], landmarks[19] - landmarks[20])
    72. angle_list.append(angle_)
    73. angle_list = [abs(a) for a in angle_list]
    74. return angle_list
    75. def h_gesture(angle_list):
    76. """
    77. 通过二维特征确定手指所摆出的手势
    78. :param angle_list: 各个手指弯曲的角度
    79. :return : 手势名称字符串
    80. """
    81. thr_angle = 65.
    82. thr_angle_thumb = 53.
    83. thr_angle_s = 49.
    84. gesture_str = "none"
    85. if (angle_list[0] > thr_angle_thumb) and (angle_list[1] > thr_angle) and (angle_list[2] > thr_angle) and (
    86. angle_list[3] > thr_angle) and (angle_list[4] > thr_angle):
    87. gesture_str = "fist"
    88. elif (angle_list[0] < thr_angle_s) and (angle_list[1] < thr_angle_s) and (angle_list[2] > thr_angle) and (
    89. angle_list[3] > thr_angle) and (angle_list[4] > thr_angle):
    90. gesture_str = "gun"
    91. elif (angle_list[0] < thr_angle_s) and (angle_list[1] > thr_angle) and (angle_list[2] > thr_angle) and (
    92. angle_list[3] > thr_angle) and (angle_list[4] > thr_angle):
    93. gesture_str = "hand_heart"
    94. elif (angle_list[0] > thr_angle_thumb) and (angle_list[1] < thr_angle_s) and (angle_list[2] > thr_angle) and (
    95. angle_list[3] > thr_angle) and (angle_list[4] > thr_angle):
    96. gesture_str = "one"
    97. elif (angle_list[0] > thr_angle_thumb) and (angle_list[1] < thr_angle_s) and (angle_list[2] < thr_angle_s) and (
    98. angle_list[3] > thr_angle) and (angle_list[4] > thr_angle):
    99. gesture_str = "two"
    100. elif (angle_list[0] > thr_angle_thumb) and (angle_list[1] < thr_angle_s) and (angle_list[2] < thr_angle_s) and (
    101. angle_list[3] < thr_angle_s) and (angle_list[4] > thr_angle):
    102. gesture_str = "three"
    103. elif (angle_list[0] > thr_angle_thumb) and (angle_list[1] > thr_angle) and (angle_list[2] < thr_angle_s) and (
    104. angle_list[3] < thr_angle_s) and (angle_list[4] < thr_angle_s):
    105. gesture_str = "ok"
    106. elif (angle_list[0] > thr_angle_thumb) and (angle_list[1] < thr_angle_s) and (angle_list[2] < thr_angle_s) and (
    107. angle_list[3] < thr_angle_s) and (angle_list[4] < thr_angle_s):
    108. gesture_str = "four"
    109. elif (angle_list[0] < thr_angle_s) and (angle_list[1] < thr_angle_s) and (angle_list[2] < thr_angle_s) and (
    110. angle_list[3] < thr_angle_s) and (angle_list[4] < thr_angle_s):
    111. gesture_str = "five"
    112. elif (angle_list[0] < thr_angle_s) and (angle_list[1] > thr_angle) and (angle_list[2] > thr_angle) and (
    113. angle_list[3] > thr_angle) and (angle_list[4] < thr_angle_s):
    114. gesture_str = "six"
    115. else:
    116. "none"
    117. return gesture_str
    118. mp_drawing = mp.solutions.drawing_utils
    119. mp_hands = mp.solutions.hands
    120. # For webcam input:
    121. cap = cv2.VideoCapture(0)
    122. with mp_hands.Hands(
    123. min_detection_confidence=0.5,
    124. min_tracking_confidence=0.5) as hands:
    125. while cap.isOpened():
    126. success, image = cap.read()
    127. if not success:
    128. print("Ignoring empty camera frame.")
    129. # If loading a video, use 'break' instead of 'continue'.
    130. continue
    131. # Flip the image horizontally for a later selfie-view display, and convert
    132. # the BGR image to RGB.
    133. image = cv2.cvtColor(cv2.flip(image, 1), cv2.COLOR_BGR2RGB)
    134. # To improve performance, optionally mark the image as not writeable to
    135. # pass by reference.
    136. image.flags.writeable = False
    137. results = hands.process(image)
    138. # Draw the hand annotations on the image.
    139. image.flags.writeable = True
    140. image = cv2.cvtColor(image, cv2.COLOR_RGB2BGR)
    141. gesture = "none"
    142. if results.multi_hand_landmarks:
    143. for hand_landmarks in results.multi_hand_landmarks:
    144. mp_drawing.draw_landmarks(image, hand_landmarks, mp_hands.HAND_CONNECTIONS)
    145. landmarks = get_hand_landmarks((image.shape[1], image.shape[0]), hand_landmarks.landmark)
    146. angle_list = hand_angle(landmarks)
    147. gesture = h_gesture(angle_list)
    148. if gesture != "none":
    149. break;
    150. image = show_fps(cv2.flip(image, 1))
    151. cv2.putText(image, gesture, (20, 60), cv2.FONT_HERSHEY_SIMPLEX, 1.5, (255, 0, 0), 4)
    152. cv2.imshow('MediaPipe Hands', image)
    153. if cv2.waitKey(5) & 0xFF == 27:
    154. break
    155. cap.release()

     

     效果测试:

    Mediapipe手势识别

     

  • 相关阅读:
    企业软文推广有哪些方案?媒介盒子为您解答
    Python实现视频自动打码,不用担心透露隐私了
    优雅的操作文件:java.nio.file 库介绍
    33、CSS进阶——布局
    如何实现全网采集
    【soc】— spl&&uboot校验方法
    Python面试宝典
    【记录】go语言编程规范梳理总结
    Kafka3.x核心速查手册二、客户端使用篇-6、消息发送幂等性
    Flink - 大规模状态 ValueState 实践与优化
  • 原文地址:https://blog.csdn.net/qq_64257614/article/details/132790951