首页 > 解决方案 > 如何像 FFMPEG 一样在 Python 中从音频文件创建频谱图?

问题描述

我的代码:

import matplotlib.pyplot as plt
from matplotlib.pyplot import specgram
import librosa
import librosa.display
import numpy as np
import io
from PIL import Image

samples, sample_rate = librosa.load('thabo.wav')
fig = plt.figure(figsize=[4, 4])
ax = fig.add_subplot(111)
ax.axes.get_xaxis().set_visible(False)
ax.axes.get_yaxis().set_visible(False)
ax.set_frame_on(False)
S = librosa.feature.melspectrogram(y=samples, sr=sample_rate)
librosa.display.specshow(librosa.power_to_db(S, ref=np.max))
buf = io.BytesIO()
plt.savefig(buf,  bbox_inches='tight',pad_inches=0)

# plt.close('all')
buf.seek(0)
im = Image.open(buf)
# im = Image.open(buf).convert('L')
im.show()
buf.close()

产生的频谱图

在此处输入图像描述

使用 FFMPEG

ffmpeg -i thabo.wav -lavfi showspectrumpic=s=224x224:mode=separate:legend=disabled spectrogram.png

产生的频谱图

在此处输入图像描述

请帮忙,我想要一个与 FFMPEG 产生的频谱图完全相同的频谱图,用于从谷歌的可教机器导出的语音识别模型。 离线识别

标签: pythonffmpegspeech-recognitionspectrogram

解决方案


您可以直接将音频通过管道传输到ffmpeg其中,从而避免中间文件,ffmpeg如果您想避免图像文件输出,也可以输出到管道。

使用以下三个实例进行演示ffmpeg

ffmpeg -i input.wav -f wav - | ffmpeg -i - -filter_complex "showspectrumpic=s=224x224:mode=separate:legend=disabled" -c:v png -f image2pipe - | ffmpeg -y -i - output.png

当然,第一个和最后一个ffmpeg实例将替换为您的工作流程的特定流程。


推荐阅读