赞
踩
【导读】本文是专栏《计算机视觉40例简介》的第26个案例《姿势识别》。该专栏简要介绍李立宗主编《计算机视觉40例——从入门到深度学习(OpenCV-Python)》一书的40个案例。 目前,该书已经在电子工业出版社出版,大家可以在京东、淘宝、当当等平台购买。 大家可以在公众号“计算机视觉之光”回复关键字【案例26】获取本文案例的源代码及使用的测试图片等资料。 针对本书40个案例的每一个案例,分别录制了介绍视频。如果嫌看文字版麻烦,可以关注公众号“计算机视觉之光”直接观看视频介绍版。 本文简要介绍了本案例的一些基础知识,更详细的理论介绍、代码实现等内容请参考《计算机视觉40例简介》第24章《深度学习应用实践》以获取更详细信息。 |
姿势识别是指能够识别出图像中人体的姿势,它在人机交互、体育、健身、动作采集、自动驾驶等领域具有广阔的应用前景。
OpenPose人体姿态识别项目是美国卡耐基梅隆大学(CMU)基于卷积神经网络和监督学习并以caffe为框架开发的开源库,是首个基于深度学习的实时多人二维姿态估计应用。它可以实现人体动作、面部表情、手指运动等姿态估计。它不仅适用于单人,同时还能针对多人进行姿势识别。
OpenPose的总览图如图1所示,其中:
图1 流程图
其结构如图2所示,它第1个阶段预测PAFs(Lt),第2个阶段预测PCMs(St)。它们的终端使用的是3层3×3大小的卷积核。
图2 网络结构
核心编写代码如下:
- while cv2.waitKey(1) < 0:
- hasFrame, frame = cap.read()
- H, W =frame.shape[:2]
- blob = cv2.dnn.blobFromImage(frame, 1.0, (368, 368), (127.5, 127.5, 127.5), swapRB=True, crop=False)
- net.setInput(blob)
- out = net.forward()
- print(out.shape)
- # out[0]:图像索引。
- # out[1]: 关键点的索引。关键点热力图和部件亲和力图的置信度
- # out[2]: 第3维是输出图的高度。
- # out[3]: 第4个维度是输出图的宽度。
- #========核心步骤1:确定关键部位(关键点)=============
- out = out[:, :19, :, :] #仅仅需要前19个(0~18)
- outH = out.shape[2] #out的高度height
- outW = out.shape[3] #out的宽度width
- points = [] #关键点
- print(points)
- for i in range(len(BODY_PARTS)):
- #身体对应部位的热图切片
- heatMap = out[0, i, :, :]
- # 取最值
- _, confidence, _, point = cv2.minMaxLoc(heatMap)
- # 将out中关键点映射到原始图像image上
- px , py = point[:2]
- x = ( px / outW ) * W
- y = ( py / outH ) * H
- # 仅将置信度大于0.2的关键点保留,其余的值为“None”。
- # 这里需要额外注意,不是仅仅保留置信度大于0.2的,同时将小于0.2的值设置为None
- # 后续判断需要借助None完成
- points.append((int(x), int(y)) if confidence > 0.2 else None)
- # print(points) #观察一下points的情况,包含点和None两种值
- # ========核心步骤2:绘制可能的姿势对================
- for posePair in POSE_PAIRS: #逐个判断姿势对是否存在
- print("=============")
- partStart,partEnd = posePair[:2] #取出姿势对中的两个关键点(关键部位)
- idStart = BODY_PARTS[partStart] #取出姿势对中第1个关键部位的索引值
- idEnd = BODY_PARTS[partEnd] #取出姿势对中第2个关键部位的索引值
- print(partStart,partEnd,idStart,idEnd,points[idStart] , points[idEnd])
- # 判断当前姿势对中的两个部位是否被检测到,如果检测到,将其绘制出来
- # 通过判断当前姿势对中的两个关键部位是否在points中实现
- if points[idStart] and points[idEnd]:
- cv2.line(frame, points[idStart], points[idEnd], (0, 255, 0), 3)
- cv2.ellipse(frame, points[idStart], (3, 3), 0, 0, 360, (0, 0, 255), cv2.FILLED)
- cv2.ellipse(frame, points[idEnd], (3, 3), 0, 0, 360, (0, 0, 255), cv2.FILLED)
- # ==========显示最终结果===================
- cv2.imshow('result', frame)
运行程序,如图3会实时显示当前摄像头采集到的视频的姿势识别结果。
图3 识别结果
欢迎大家阅读《计算机视觉40例——从入门到深度学习(OpenCV-Python)》一书中第24章《深度学习应用实践》获取详细内容。
《计算机视觉40例——从入门到深度学习(OpenCV-Python)》在介绍Python基础、OpenCV基础、计算机视觉理论基础、深度学习理论的基础上,介绍了计算机视觉领域内具有代表性的40个典型案例。这些案例中,既有传统的案例(数字识别、答题卡识别、物体计数、缺陷检测、手势识别、隐身术、以图搜图、车牌识别、图像加密、指纹识别等),也有深度学习案例(图像分类、风格迁移、姿势识别、实例分割等),还有人脸识别方面的案例(表情识别、驾驶员疲劳监测、识别性别与年龄等)。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。