c++ - 使用 IMFSinkWriter 编码的视频的播放速度根据宽度变化
问题描述
我正在使用Win32s Sink Writer制作屏幕录像机(无音频) ,将一系列位图编码为 MP4 文件。
由于某种原因,视频播放速度(看似)与视频宽度成比例增加。
从这篇文章中,我收集到这很可能是因为我计算的缓冲区大小不正确。这里的不同之处在于,一旦音频缓冲区大小的计算正确,他们的视频播放问题就得到了解决,但由于我根本不编码任何音频,我不确定从中获取什么。
我也尝试了解缓冲区的工作原理,但我真的不知道缓冲区大小是如何导致不同的播放速度的。
这是整个代码的pastebin,除了缓冲区大小和/或帧索引/持续时间之外,我真的无法追踪问题。
ie:
根据成员变量的宽度m_width
(以像素为单位),播放速度会发生变化。那是; 宽度越高,视频播放速度越快,反之亦然。
这里有两个视频示例: 3840x1080和640x1080,注意系统时钟。Imugr 不保留文件的原始分辨率,但我在上传前仔细检查了,该程序确实创建了所声称分辨率的文件。
rtStart 和 rtDuration 就是这样定义的,并且都是 MP4File 类的私有成员。
LONGLONG rtStart = 0;
UINT64 rtDuration;
MFFrameRateToAverageTimePerFrame(m_FPS, 1, &rtDuration);
这是更新 rtStart 的地方,位图的各个位被传递给帧写入器。
将LPVOID
对象移至私有成员以希望提高性能。现在不需要每次附加帧时都进行堆分配。
HRESULT MP4File::AppendFrame(HBITMAP frame)
{
HRESULT hr = NULL;
if (m_isInitialFrame)
{
hr = InitializeMovieCreation();
if (FAILED(hr))
return hr;
m_isInitialFrame = false;
}
if (m_hHeap && m_lpBitsBuffer) // Makes sure buffer is initialized
{
BITMAPINFO bmpInfo;
bmpInfo.bmiHeader.biBitCount = 0;
bmpInfo.bmiHeader.biSize = sizeof(BITMAPINFOHEADER);
// Get individual bits from bitmap and loads it into the buffer used by `WriteFrame`
GetDIBits(m_hDC, frame, 0, 0, NULL, &bmpInfo, DIB_RGB_COLORS);
bmpInfo.bmiHeader.biCompression = BI_RGB;
GetDIBits(m_hDC, frame, 0, bmpInfo.bmiHeader.biHeight, m_lpBitsBuffer, &bmpInfo, DIB_RGB_COLORS);
hr = WriteFrame();
if (SUCCEEDED(hr))
{
rtStart += rtDuration;
}
}
return m_writeFrameResult = hr;
}
最后,实际将位加载到缓冲区中的帧写入器,然后写入接收器写入器。
HRESULT MP4File::WriteFrame()
{
IMFSample *pSample = NULL;
IMFMediaBuffer *pBuffer = NULL;
const LONG cbWidth = 4 * m_width;
const DWORD cbBufferSize = cbWidth * m_height;
BYTE *pData = NULL;
// Create a new memory buffer.
HRESULT hr = MFCreateMemoryBuffer(cbBufferSize, &pBuffer);
// Lock the buffer and copy the video frame to the buffer.
if (SUCCEEDED(hr))
{
hr = pBuffer->Lock(&pData, NULL, NULL);
}
if (SUCCEEDED(hr))
{
hr = MFCopyImage(
pData, // Destination buffer.
cbWidth, // Destination stride.
(BYTE*)m_lpBitsBuffer, // First row in source image.
cbWidth, // Source stride.
cbWidth, // Image width in bytes.
m_height // Image height in pixels.
);
}
if (pBuffer)
{
pBuffer->Unlock();
}
// Set the data length of the buffer.
if (SUCCEEDED(hr))
{
hr = pBuffer->SetCurrentLength(cbBufferSize);
}
// Create a media sample and add the buffer to the sample.
if (SUCCEEDED(hr))
{
hr = MFCreateSample(&pSample);
}
if (SUCCEEDED(hr))
{
hr = pSample->AddBuffer(pBuffer);
}
// Set the time stamp and the duration.
if (SUCCEEDED(hr))
{
hr = pSample->SetSampleTime(rtStart);
}
if (SUCCEEDED(hr))
{
hr = pSample->SetSampleDuration(rtDuration);
}
// Send the sample to the Sink Writer and update the timestamp
if (SUCCEEDED(hr))
{
hr = m_pSinkWriter->WriteSample(m_streamIndex, pSample);
}
SafeRelease(&pSample);
SafeRelease(&pBuffer);
return hr;
}
关于编码的一些细节:
- 帧率:30FPS
- 比特率:15 000 000
- 输出编码格式:H264(MP4)
解决方案
对我来说,这种行为是有道理的。
见https://github.com/mofo7777/Stackoverflow/tree/master/ScreenCaptureEncode
我的程序使用 DirectX9 而不是 GetDIBits,但行为是相同的。尝试使用不同屏幕分辨率的此程序,以确认此行为。
我确认,通过我的程序,视频播放速度与视频宽度(以及视频高度)成比例增加。
为什么 ?
要复制的数据越多,传递的时间就越多。以及错误的采样时间/采样持续时间。
使用 30 FPS,意味着每 33.3333333 毫秒一帧:
- GetDIBits、MFCopyImage、WriteSample 是否恰好在 33.3333333 毫秒结束...不。
- 您是否在 33.3333333 毫秒时准确地写入每一帧……不。
所以只是做 rtStart += rtDuration 是错误的,因为此时您并没有准确地捕获和写入屏幕。GetDIBits/DirectX9 无法以 30 FPS 处理,相信我。为什么微软提供 Windows 桌面复制(仅适用于 Windows 8/10)?
关键是延迟。
你知道 GetDIBits、MFCopyImage 和 WriteSample 需要多长时间吗?你应该知道,才能理解问题。通常,它需要超过 33.3333333 毫秒。但它是可变的。您必须知道它才能将正确的 FPS 调整到编码器。但是您还需要在正确的时间写入样本。
如果您使用 MF_MT_FRAME_RATE 和 5-10 FPS 而不是 30 FPS,您会发现它更真实,但不是最佳的。
例如,使用 IMFPresentationClock 来处理正确的 WriteSample 时间。
推荐阅读
- orm - Sequelize.js 模型关联
- uwsgi - uwsgi 环境变量
- installation - 测试 Inno Setup 安装程序是否以管理员权限运行
- javascript - 如何评估 IE11 中的有效日期字符串
- jquery-select2 - 我是否错误地使用了 select2?接收 JQuery 引用错误
- r - 如何去除时间序列中的特定谐波?
- python - 如何让精灵在撞到墙壁后停止加速?
- ansible - ansible 仅用其字典值替换列表项
- visual-studio-code - 无法连接到 tsserver
- python - Python想要增加一个数组元素,它增加同一列的所有数组元素