matrix - Pepper 机器人:“LandmarkDetection”基于哪个身体框架?
问题描述
解决方案
地标检测是用其顶部摄像头检测 NAOMarks。该文档解释说,您在事件值中获得了“形状信息”,例如:
ShapeInfo = [ 1, alpha, beta, sizeX, sizeY, heading]
alpha 和 beta 代表 Naomark 在摄像机角度方面的位置
sizeX 和 sizeY 是相机角度中标记的大小
航向角描述了 Naomark 如何相对于机器人的头部围绕垂直轴定向。
然后代码调用 getTransform,它将为您提供相机的方向,因此您可以将检测到的标记角度与机器人前方的实际方向(X、Y、Z)相关联(成为机器人框架)。
如果需要,标记在这里:http: //doc.aldebaran.com/2-5/naoqi/vision/allandmarkdetection.html
推荐阅读
- react-native - Tensorflow js反应原生非常慢
- javascript - 正数的正则表达式,有两个浮点数,不前导零
- linux - 程序运行时如何在linux中将缓冲区刷新到文件?
- apache2 - apache2 虚拟主机的行为不符合预期
- xamarin - Xamarin Camera2basic 无法在运行时设置 flash 参数
- c++ - 安装期间 CMake 链接 libQt6Widgets.so.6
- python - 运行 shap_interaction_values 时内核崩溃
- cypress - 尝试从 CSS 中获取值时如何在 Cypress 中设置断言范围
- java - 包装器停止成功消息和包装器服务停止状态不同步
- reporting-services - 运行总计在 SSRS Tablix 中返回不正确的值