首页 > 解决方案 > ios ARKit 3 与 iPad Pro 2020,如何使用前置摄像头数据和后置摄像头跟踪?

问题描述

ARKit API 支持通过前后摄像头同时进行世界和人脸跟踪,但遗憾的是由于硬件限制,2020 年新款 iPad Pro 无法使用此功能(可能是因为 LIDAR 摄像头需要更多功率)。这有点退步了。

这是示例项目中的更新参考:

guard ARWorldTrackingConfiguration.supportsUserFaceTracking else {
    fatalError("This sample code requires 
iOS 13 / iPad OS 13, and an iOS device with 
a front TrueDepth camera. Note: 2020 iPads 
do not support user face-tracking while world tracking.")
}

还有一个论坛对话证明这是一个无意的硬件缺陷。

看起来移动技术对于两者来说都还没有“出现”。但是,对于我的用例,我只是希望能够在前后跟踪模式之间无缝切换,而无需重新配置跟踪空间。例如,我想要一个按钮来在“现在你跟踪并看到我的脸”模式和“世界跟踪”模式之间切换。

有两种情况:可能或不可能,但也许有一些替代方法取决于此。

是否有可能,或者切换 AR 跟踪模式是否需要再次设置跟踪空间?如果是这样,它将如何实现?

如果不可能:即使我在世界跟踪期间没有进行面部跟踪,是否有办法获得可以与 Vision 框架一起使用的前置摄像头馈送?

具体来说:如何启用背面跟踪并同时获取正面和背面摄像头供稿,并有选择地禁用其中一个或另一个?如果即使没有前置跟踪并且只有基本提要也有可能,这将起作用。

标签: iosipadcameraaugmented-realityarkit

解决方案


推荐阅读