使用openpose的两种方式
- 在本地PC上装好caffe,然后编译openpose(小白劝退操作!)
- 在
colab
上进行操作,已经有现成的 -> jupyter notebook <-可用
符合Project Aruora的两个模型
- BODY_25 -- 25个点(跑通)
- COCO -- 18个点(未找到模型)
输出的关节点信息(官方文档 >url<)(掘金中文博客:https://cloud.tencent.com/developer/article/1396323)
colab openpose jupyte笔记中执行识别的语句,其中加上选项 --write_json ./output/
就会把识别到的关节点数据导出
!cd openpose && ./build/examples/openpose/openpose.bin --model_pose BODY_25 --video ../video.mp4 --write_json ./output/ --display 0 --write_video ../openpose.avi
BODY_25
image.png输出的json格式:
{"version":1.3,"people":[{"person_id":[-1],"pose_keypoints_2d":[x1, y1,c1,...,x25,y25,c25],"face_keypoints_2d":[],"hand_left_keypoints_2d":[],"hand_right_keypoints_2d":[],"pose_keypoints_3d":[],"face_keypoints_3d":[],"hand_left_keypoints_3d":[],"hand_right_keypoints_3d":[]},{"person_id":[-1],...}]
格式分析:
- 为什么会有两个 "person_id":[-1] ?
答:因为colab的识别视频出现两个人,而 person_id 只会是 -1 - "pose_keypoints_2d " 的
x
y
c
,分别是什么意思?
答:x是横像数点位置,y是竖像素点位置,c是置信度
COCO
image.png下周迭代的功能
- 运用COCO模型识别18个点
- 录制一段自己的深蹲视频,二十秒即可,然后上传到colab来识别
- 编译 Openpose ,利用 python 的api来实现批量化得到模型(有两种做法,一种是用python去调用shell,另一种就是完全用Python的api)
网友评论