ios - 如何在使用 ARKit WorldTackingConfiguration 时随时拍摄用户的面部照片
问题描述
我正在使用 ARKit 放置一些 3D 模型并将其可视化在现实世界中。我想在 AR 视图中通过单击按钮以编程方式拍摄用户的脸部照片(不向用户显示前置摄像头屏幕)。我按照这个链接iOS:从前置摄像头捕获图像以捕获用户的脸部。
但这仅在 AR 会话开始之前有效。AR 会话一开始,就根本不会调用下面的委托方法。
func captureOutput(_ output: AVCaptureOutput, didOutput sampleBuffer: CMSampleBuffer, from connection: AVCaptureConnection) {
}
如果我再次调用setupCamera()方法(从链接),它会中断 AR 会话。
有没有办法在用户查看 AR 视图时拍摄他们的照片?
我尝试结合ARFaceTrackingConfiguration和ARWorldTrackingConfiguration来跟踪用户的面部表情,但这也不起作用。看起来一次只能激活一种配置。
解决方案
推荐阅读
- java - JSONArray 长度似乎是错误的,因此不会正确迭代
- amazon-web-services - 多标签 cdk bootstrap
- excel - Excel公式翻译(多语言系统)
- apache-spark - 有没有一种简单的方法可以使用带有 Yarn 的 Spark 排除节点?
- ios - 使用 FSCalendar 预约预约时段
- version-control - 是否有人恢复了 2020 年停用的 Bitbucket Mercurial Repo?
- django - alueError:无法分配值字段必须是对象实例
- spring-boot - 如何在rest模板中删除响应头参数“transfer-encoding:chunked”?
- python - 如何在循环结束之前重新启动循环
- php - 如何从谷歌驱动器获取视频文件,但 gmail 帐户注销无法在我的网站上播放视频