首页 > 解决方案 > OpenCV:比较来自网络摄像头和图像的姿势

问题描述

我想将我从网络摄像头获得的姿势与从图像获得的姿势进行比较。姿态估计的基本代码来自:https ://github.com/opencv/opencv/blob/master/samples/dnn/openpose.py

如何将我自己的实时姿势与图像的姿势进行比较,如果两个姿势在某个阈值内匹配,则返回 True?

例如,如果我将手臂放在某个位置以匹配某人正在做同样事情的图像,我怎么能得到匹配程度的结果?

这样做的方法是什么/我在哪里可以找到有关此的更多信息?

标签: pythonopencvpose-estimation

解决方案


在此处输入图像描述

正如您在此处看到的,检测到的人体姿势的结果索引从 0 到 17。

您可以使用 L2 距离来测量所有对之间的距离。

例如,对于第 0 个关节:

(J0[0] - J1[0])*(J0[0] - J1[0])

更多关于 openpose 的输出。

其实openpose给你的不仅仅是0-1(x,y)confidence分数。你可以得到这个分数。

例如,在我的项目中:

(J0[0] - J1[0])*(J0[0] - J1[0])*confidance

推荐阅读