webrtc - How does audio and video in a webrtc peerconnection stay in sync?
问题描述
How does audio and video in a webrtc peerconnection stay in sync? I am using an API which publishes audio and video (I assume as one peer connection) to a media server. The audio can occasionally go out of sync up to 200ms. I am attributing this to the possibility that the audio and video are separate streams and this accounts for the why the sync can be out.
解决方案
RTP/RTCP(WebRTC 使用)传统上使用RTCP Sender Report。这允许每个 SSRC 流在 NTP 时间戳上同步。浏览器今天确实使用它们,所以应该可以。
你在做任何协议桥接或任何可能只是 RTP 的事情吗?您使用的是什么媒体服务器?
推荐阅读
- node.js - 有人在 Elastic Beanstalk 上使用过 Workbox 吗?未检测到
- c - 重命名文件 预操作 Windows Minifilter 驱动程序
- r - 从长格式到宽格式,其中新生成的列灵活地反映值出现的顺序
- python - 我怎样才能让我的二元组实际打印?我收到一个错误:TypeError: sequence item 0: expected str instance, list found
- python-3.x - 如何从数组中删除某些元素?
- ruby-on-rails - Rails with Devise:用户详细信息未在测试中更新(但在应用程序中有效)
- python - Python中文本文件的匹配和提取
- c++ - QT如何在主程序中等待一个线程(不使用睡眠/冻结)
- javascript - 在另一个 Promise 包裹的流中等待 Promise
- unity3d - UI 元素在 Android 上无法正确呈现