ios - 如何将CALayer放在视频数据输出的CMSampleBuffer上?
问题描述
这是我的代码:
func captureOutput(_ output: AVCaptureOutput,
didOutput sampleBuffer: CMSampleBuffer,
from connection: AVCaptureConnection) {
guard CMSampleBufferDataIsReady(sampleBuffer) else { return }
// This is the delegate method for
// AVCaptureVideoDataOutputSampleBufferDelegate and
// AVCaptureAudioDataOutputSampleBufferDelegate
}
我正在尝试使用 Vision 框架并在我获得成功的眼睛上绘制一层。但是我想记录相同的。
解决方案
推荐阅读
- javascript - 通过调节另一个对象属性来访问对象数组中的对象值
- c# - 在 Xamarin 表单中重置选取器显示值
- java - Quarkus 读取 `ResultSet` 并使用多线程处理
- tensorflow - 我在使用 tensorflow-gpu 时遇到问题。分配器 (GPU_0_bfc) 内存不足,试图在 freed_by_count=0 的情况下分配 2.20GiB
- jquery - 附加在调整大小和加载多个实例
- sql - 调整结束日期
- wordpress - 更改 WooCommerce 电子邮件字体系列
- hibernate-criteria - 标准规范 - 如何编写泛型类以通过实体的任何枚举字段过滤实体
- java - 如何制作具有灵活标准的随机字符串生成器?
- asp.net-core - 将多层项目部署到生产环境时的最佳实践