首页 > 解决方案 > 将 AudioBuffer 从 JavaScript (Fload32Array) 转换为 C# (ByteArray)

问题描述

我正在尝试从浏览器接收来自麦克风的音频流并将其发送到 MS 认知语音服务。

我使用下面的 JavaScript 来获取音频流缓冲区。

navigator.mediaDevices.getUserMedia({ audio: true })
  .then((mic) => {
    var mediaStream = audioContext.createMediaStreamSource(mic);

    var recorder = null;
    if (audioContext.createScriptProcessor) {
        recorder = audioContext.createScriptProcessor(44100, 512, 1);
    } else {
        recorder = audioContext.createJavaScriptNode(44100, 512, 1);
    }

    recorder.onaudioprocess = function (e) {
        _dotNetAudio.sendAudioBuffer(e.inputBuffer.getChannelData(0));
    }

    mediaStream.connect(recorder);
    recorder.connect(audioContext.destination);

    sendSuccessMessage(mic.id);
})
.catch((e) => {
    sendErrorMessage(e.message);
});

_dotNetAudio.sendAudioBuffer 方法调用 C# 方法来服务流数据。

    [JSInvokable]
    public Task OnAudioBufferReceived(object audioBuffer)
    {
        if(audioBuffer == null) return Task.CompletedTask;

        if (audioBuffer is JsonElement)
        {

            double[] doubleArray = ((JsonElement)audioBuffer).EnumerateObject().Select(x => x.Value.GetDouble()).ToArray();

            **byte[] bytesArray = doubleArray;**

            AudioBufferReceived?.Invoke(this, bytesArray);
        }
        
        return Task.CompletedTask;
    }

但我不知道如何将接收到的麦克风数据从 JavaScript(Fload32Array 类型/双 [])转换为字节 []。为 PushAudioInputStream (Microsoft.CognitiveServices.Speech.Audio) 提供数据是必需的。

你有什么想法?

标签: javascriptc#audiotype-conversionmicrophone

解决方案


推荐阅读