首页 > 解决方案 > 有什么方法可以增加我的哈希的冲突次数以进行音频处理吗?

问题描述

所以我正在尝试制作一种针对澳大利亚鸟类的鸟类 shazam(因为我在这里没有看到这个)。请不要告诉我它不适用于真实的音频样本,我很清楚这一点,我这样做只是为了好玩并学习更多编码:)

到目前为止,我已经得到了这段代码(我承认我从网上偷了很多代码):


def hash_file(filename):
   """"This function returns the SHA-1 hash
   of the file passed into it"""

   # make a hash object
   h = hashlib.blake2s()

   # open file for reading in binary mode
   with open(filename,'rb') as file:

       # loop till the end of the file
       chunk = 0
       while chunk != b'':
           # read only 1024 bytes at a time
           chunk = file.read(1024)
           h.update(chunk)

   # return the hex representation of digest
   return h.hexdigest()

import os
from pydub import AudioSegment
from pydub.utils import make_chunks
list_of_sounds = {}

directory = r'Bird_Calls'
for filename in os.listdir(directory):
    if filename.endswith(".mp3"):
        #print(os.path.join(directory, filename))
        #print(hash_file(os.path.join(directory,filename)))
        hasha=hash_file(os.path.join(directory,filename))
        list_of_sounds[hasha] = [filename]
    else:
        continue

print(list_of_sounds)


import pyaudio
import wave

CHUNK = 1024
FORMAT = pyaudio.paInt16
CHANNELS = 1
RATE = 44100
RECORD_SECONDS = 5
WAVE_OUTPUT_FILENAME = "tmp.mp3"

p = pyaudio.PyAudio()

stream = p.open(format=FORMAT,
                channels=CHANNELS,
                rate=RATE,
                input=True,
                frames_per_buffer=CHUNK)

print("* recording")

frames = []

for i in range(0, int(RATE / CHUNK * RECORD_SECONDS)):
    data = stream.read(CHUNK)
    frames.append(data)

print("* done recording")

stream.stop_stream()
stream.close()
p.terminate()

wf = wave.open(WAVE_OUTPUT_FILENAME, 'wb')
wf.setnchannels(CHANNELS)
wf.setsampwidth(p.get_sample_size(FORMAT))
wf.setframerate(RATE)
wf.writeframes(b''.join(frames))
wf.close()

recorded=hash_file("tmp.mp3")

if recorded in list_of_sounds:
    print(filename)

问题是当我录制音频时(即使它只是播放一个我知道在数据库中的电话,然后只是录制它以获取哈希),哈希值仍然不同。我知道这是由于时序/音频质量/背景噪声等方面的轻微偏移。有没有办法让我的哈希值“更模糊”以增加碰撞的机会?或者我是不是完全错误地处理了这个问题。请不要将我指向 dejavu 程序的方向,我确信它工作得很好,但我想看看我是否可以自己编写代码。谢谢!

标签: pythonaudio-processinghashlib

解决方案


您选择了 Blake2S 作为散列函数。这是一个加密散列函数,这意味着它旨在为每个输入字节产生非常不同的结果。

对您而言,这意味着:如果您的 MP3 仅 1 个字节不同,则生成的哈希值已经非常不同。

增加碰撞次数无济于事。实际上它会相反:任何其他文件(即使是文本文件、Word 文档或类似文件)都会有更高的变化来匹配您的鸟鸣。

您需要的是专门为音频设计的哈希函数。对于类似 Shazam 的功能,即:

  • 时间可能相对严格,因为我们希望所有播放都具有相同的速度(由于制造公差和温度,这可能会有所不同,但可能小于 1%)
  • 它必须允许时移,因为录制可能迟早开始
  • 它对频率可能相对严格,因为它是以特定频率录制的,我们希望播放产生类似的结果(如果使用均衡器并且每个扬声器都有不同的谐振频率,这可能会有所不同)
  • 它必须允许幅度变化,因为播放可以更大声或从更远的地方录制
  • 它必须允许噪音和环境声音

对于鸟类来说,算法变得更加困难,因为

  • 它必须允许时间差异,因为不是每只鸟都以相同的速度唱歌
  • 它必须允许频移,因为鸟儿可能会以不同的频率唱歌,而且它们没有什么可调的

潜在变化

为了解决图片中显示的一些问题,Shazam 使用频谱而不是波形,因此您需要的是傅立叶变换(通常是 FFT,而不是很多 DFT)。他们不会做一次,而是以很小的增量做,所以他们得到一个瀑布谱图,比如

频谱图

但他们仍然需要考虑存在时间偏移(X 轴偏移)和响度差异(更强烈的颜色)。您还需要考虑两个轴上的移位和拉伸。

也许在频谱图上做一些类似图像处理的事情。您可以尝试识别具有当前频率和不存在频率的边缘和区域,如下所示:

特征检测

这样你就可以说这两个声音都包含 4 个边缘、2 个不存在的频率区域和 4 个存在的频率区域以及它们彼此的相对位置是相似的。

这正是你的哈希值。


推荐阅读