首页 > 解决方案 > 如何在相机以外的其他传感器上使用 SLAM?

问题描述

我有一个传感器,可以读取每个位置的电磁场强度。

并且每个位置的场都是稳定且独特的。所以读数只是位置的函数,如下所示:reading = emf(x,y,z)

读数由 3 个数字组成(不是位置)。

我想找到函数的反emf函数。这意味着我想找到pos这样定义的函数:x,y,z = pos(reading)

我无法同时使用emfpos功能。我想我想pos使用神经网络逐步估计函数。

所以我通过 IMU 的空间输入reading和加速传感器。ax,ay,az加速度不是那么准确。我想使用这 2 个输入来帮助我确定传感器随时间的位置。您可以假设第一次读数时起始位置为 0,0,0。

简而言之,输入是readingax,ay,az每个时间步上,输出将根据函数的权重进行调整,pos或者输出将直接定位。

我一直在阅读SLAM(同时定位和映射)算法,我认为这可能对我的情况有所帮助,因为我的问题是概率性的。如果我准确地知道加速度,我不需要任何概率,但加速度是不准确的。

所以我想知道如何根据SLAM对这个问题进行建模?不过,我没有相机来做基于视觉的 SLAM。

为什么我认为这很容易处理?如果第一个读数是1,1,1并且位置在原点0,0,0,并且我移动传感器,则位置可能会漂移,因为传感器以前从未见过其他读数,但在我回到原点后,读数将1,1,1再次出现,因此传感器应该报告原点0,0,0作为输出。在传感器移动期间,算法应过滤加速度,以便所有先前的位置都有意义。

标签: machine-learningdeep-learningbayesianslam

解决方案


推荐阅读