首页 > 解决方案 > AudioUnit 输出缓冲区和输入缓冲区

问题描述

我的问题是当我使用实时拉伸时我应该怎么做?我知道速率的变化会改变输出样本的数量。例如,如果我用 2.0 系数拉伸音频,则输出缓冲区会更大(两倍)。

那么,如果我创建混响、延迟或实时时间拉伸,我应该怎么做?

例如,我的输入缓冲区是 1024 个样本。然后我用 2.0 系数拉伸音频。现在我的缓冲区是 2048 个样本。

在这段带有超强音频拉伸的代码中,一切正常。但是如果我不改变速率......当我改变速率时 - 它听起来有失真而没有实际的速度变化。

return ^AUAudioUnitStatus(AudioUnitRenderActionFlags    *actionFlags,
                              const AudioTimeStamp      *timestamp,
                              AVAudioFrameCount         frameCount,
                              NSInteger             outputBusNumber,
                              AudioBufferList           *outputBufferListPtr,
                              const AURenderEvent       *realtimeEventListHead,
                              AURenderPullInputBlock        pullInputBlock ) {

        pullInputBlock(actionFlags, timestamp, frameCount, 0, renderABLCapture);

        Float32 *sampleDataInLeft = (Float32*) renderABLCapture->mBuffers[0].mData;
        Float32 *sampleDataInRight = (Float32*) renderABLCapture->mBuffers[1].mData;

        Float32 *sampleDataOutLeft  = (Float32*)outputBufferListPtr->mBuffers[0].mData;
        Float32 *sampleDataOutRight = (Float32*)outputBufferListPtr->mBuffers[1].mData;


        SuperpoweredAudiobufferlistElement inputBuffer;
        inputBuffer.samplePosition = 0;
        inputBuffer.startSample = 0;
        inputBuffer.samplesUsed = 0;
        inputBuffer.endSample = frameCount;
        inputBuffer.buffers[0] = SuperpoweredAudiobufferPool::getBuffer(frameCount * 8 + 64);
        inputBuffer.buffers[1] = inputBuffer.buffers[2] = inputBuffer.buffers[3] = NULL;

        SuperpoweredInterleave(sampleDataInLeft, sampleDataInRight, (Float32*)inputBuffer.buffers[0], frameCount);

        timeStretch->setRateAndPitchShift(1.0f, -2);
        timeStretch->setSampleRate(48000);
        timeStretch->process(&inputBuffer, outputBuffers);

        if (outputBuffers->makeSlice(0, outputBuffers->sampleLength)) {

            int numSamples = 0;
            int samplesOffset =0;

            while (true) {

                Float32 *timeStretchedAudio = (Float32 *)outputBuffers->nextSliceItem(&numSamples);
                if (!timeStretchedAudio) break;

                  SuperpoweredDeInterleave(timeStretchedAudio, sampleDataOutLeft + samplesOffset, sampleDataOutRight + samplesOffset, numSamples);

                samplesOffset += numSamples;

            };

            outputBuffers->clear();

        }

        return noErr;
    };

那么,当我的输入和输出缓冲区具有不同的样本数(混响、延迟或时间拉伸)时,如何创建我的音频单元渲染块?

标签: core-audioaudiounitaudiotoolboxavaudioenginesuperpowered

解决方案


如果您的进程创建的样本比音频回调输入/输出缓冲区大小提供的更多,则必须保存这些样本并稍后播放它们,如有必要,通过在稍后的音频单元回调中与后续输出混合。

通常循环缓冲区用于解耦输入、处理和输出采样率或缓冲区大小。


推荐阅读