swift - 如何为 MLkit 面部检测实现 CMSampleBuffer?
问题描述
基本上,我正在尝试创建一个简单的实时面部识别 IOS 应用程序,它可以流式传输用户的面部并告诉他们他们的眼睛是否闭合。我在这里关注谷歌教程 - https://firebase.google.com/docs/ml-kit/ios/detect-faces。我在第 2 步(运行人脸检测器),我正在尝试使用 CMSampleBufferRef 创建一个 visionImage。我基本上只是复制代码,当我这样做时,没有参考教程中显示的“sampleBuffer”。我不知道该怎么做,因为我真的不了解 CMSampleBuffer 的东西。
解决方案
ML Kit 有一个快速入门应用程序,展示了如何做到这一点。这是代码:
https://github.com/firebase/quickstart-ios/tree/master/mlvision
推荐阅读
- c# - 如何递归使用 LINQ WHERE?
- swift - Swift 属性观察器 - didset 与 willset 使用示例
- javascript - vue.js 变量不适用于 Node.js :
- mongodb - 查找所有重叠区间的计数
- oracle11g - 从 oracle11g 自动下载 csv 文件
- javascript - 引用数组时避免使用幻数
- c# - ASP.NET Core 2.0 IAuthorizationService 和过期的承载令牌
- asp.net-core - 如何在启动时根据配置文件切换依赖注入绑定?
- css - 谷歌浏览器中奇怪的图像纵横比
- python - Python,请求未能解码数据?