core-audio - AudioUnit 输出缓冲区和输入缓冲区
问题描述
我的问题是当我使用实时拉伸时我应该怎么做?我知道速率的变化会改变输出样本的数量。例如,如果我用 2.0 系数拉伸音频,则输出缓冲区会更大(两倍)。
那么,如果我创建混响、延迟或实时时间拉伸,我应该怎么做?
例如,我的输入缓冲区是 1024 个样本。然后我用 2.0 系数拉伸音频。现在我的缓冲区是 2048 个样本。
在这段带有超强音频拉伸的代码中,一切正常。但是如果我不改变速率......当我改变速率时 - 它听起来有失真而没有实际的速度变化。
return ^AUAudioUnitStatus(AudioUnitRenderActionFlags *actionFlags,
const AudioTimeStamp *timestamp,
AVAudioFrameCount frameCount,
NSInteger outputBusNumber,
AudioBufferList *outputBufferListPtr,
const AURenderEvent *realtimeEventListHead,
AURenderPullInputBlock pullInputBlock ) {
pullInputBlock(actionFlags, timestamp, frameCount, 0, renderABLCapture);
Float32 *sampleDataInLeft = (Float32*) renderABLCapture->mBuffers[0].mData;
Float32 *sampleDataInRight = (Float32*) renderABLCapture->mBuffers[1].mData;
Float32 *sampleDataOutLeft = (Float32*)outputBufferListPtr->mBuffers[0].mData;
Float32 *sampleDataOutRight = (Float32*)outputBufferListPtr->mBuffers[1].mData;
SuperpoweredAudiobufferlistElement inputBuffer;
inputBuffer.samplePosition = 0;
inputBuffer.startSample = 0;
inputBuffer.samplesUsed = 0;
inputBuffer.endSample = frameCount;
inputBuffer.buffers[0] = SuperpoweredAudiobufferPool::getBuffer(frameCount * 8 + 64);
inputBuffer.buffers[1] = inputBuffer.buffers[2] = inputBuffer.buffers[3] = NULL;
SuperpoweredInterleave(sampleDataInLeft, sampleDataInRight, (Float32*)inputBuffer.buffers[0], frameCount);
timeStretch->setRateAndPitchShift(1.0f, -2);
timeStretch->setSampleRate(48000);
timeStretch->process(&inputBuffer, outputBuffers);
if (outputBuffers->makeSlice(0, outputBuffers->sampleLength)) {
int numSamples = 0;
int samplesOffset =0;
while (true) {
Float32 *timeStretchedAudio = (Float32 *)outputBuffers->nextSliceItem(&numSamples);
if (!timeStretchedAudio) break;
SuperpoweredDeInterleave(timeStretchedAudio, sampleDataOutLeft + samplesOffset, sampleDataOutRight + samplesOffset, numSamples);
samplesOffset += numSamples;
};
outputBuffers->clear();
}
return noErr;
};
那么,当我的输入和输出缓冲区具有不同的样本数(混响、延迟或时间拉伸)时,如何创建我的音频单元渲染块?
解决方案
如果您的进程创建的样本比音频回调输入/输出缓冲区大小提供的更多,则必须保存这些样本并稍后播放它们,如有必要,通过在稍后的音频单元回调中与后续输出混合。
通常循环缓冲区用于解耦输入、处理和输出采样率或缓冲区大小。
推荐阅读
- java - 如何从 Java 中的多部分/混合批处理 OData 调用中解析 JSON?
- android - 如何在 ViewModel 中获取 CameraManager 而不持有对我的活动/上下文的引用?
- javascript - 如何修复仅返回 else 语句的 if 函数
- android - 在 Microsoft Intune / Android Enterprise 中注册设备后蓝牙 PIN 不显示
- python - 从列表中找到年龄最大的 2 个孩子
- javascript - 循环选择选项并删除
- python - 如何从对象推迟多对多字段?
- ruby - 在 sidekiq 中获取有关特定队列的信息
- arrays - 如何在 sbatch 命令行中将 slurm 数组作为参数传递?
- vba - Access VBA:重置表单上的日期