ios - ios ARKit 3 与 iPad Pro 2020,如何使用前置摄像头数据和后置摄像头跟踪?
问题描述
ARKit API 支持通过前后摄像头同时进行世界和人脸跟踪,但遗憾的是由于硬件限制,2020 年新款 iPad Pro 无法使用此功能(可能是因为 LIDAR 摄像头需要更多功率)。这有点退步了。
这是示例项目中的更新参考:
guard ARWorldTrackingConfiguration.supportsUserFaceTracking else {
fatalError("This sample code requires
iOS 13 / iPad OS 13, and an iOS device with
a front TrueDepth camera. Note: 2020 iPads
do not support user face-tracking while world tracking.")
}
还有一个论坛对话证明这是一个无意的硬件缺陷。
看起来移动技术对于两者来说都还没有“出现”。但是,对于我的用例,我只是希望能够在前后跟踪模式之间无缝切换,而无需重新配置跟踪空间。例如,我想要一个按钮来在“现在你跟踪并看到我的脸”模式和“世界跟踪”模式之间切换。
有两种情况:可能或不可能,但也许有一些替代方法取决于此。
是否有可能,或者切换 AR 跟踪模式是否需要再次设置跟踪空间?如果是这样,它将如何实现?
如果不可能:即使我在世界跟踪期间没有进行面部跟踪,是否有办法获得可以与 Vision 框架一起使用的前置摄像头馈送?
具体来说:如何启用背面跟踪并同时获取正面和背面摄像头供稿,并有选择地禁用其中一个或另一个?如果即使没有前置跟踪并且只有基本提要也有可能,这将起作用。
解决方案
推荐阅读
- javascript - 使用 firebase 发送消息通知
- r - Shiny R 仅绘制滑块范围的极值
- javascript - JavaScript "if X" 然后条件内容替换
- angular - 与开发模式相比,构建模式下的 Angular NgRx 奇怪行为
- cron - 在晚上 10 点到凌晨 1 点之间每 30 分钟轮询文件的 Cron 表达式不起作用
- html - 在屏幕中央开始转换的图标
- list - 批处理:从选择列表中排除某些文件
- java - org.apache.flink.util.FlinkException:释放共享槽父
- npm - Electron Builder 无法将下载的内容移动到最终位置(另一个进程下载速度更快?)错误=重命名
- python - pytest:为每个测试函数设置一个模拟