gpt4 book ai didi

python - 如何让这个均衡器更加高效呢?

转载 作者:行者123 更新时间:2023-12-01 09:24:08 30 4
gpt4 key购买 nike

所以我一直致力于制作均衡器,我面临的问题是 pyaudio 流的传输速度比 eq 的速度快得多。正在查找音频文件的低音分量。我简单介绍一下实现过程:
我创建了两个额外的线程,并使用 tkinter 作为 GUI。线程 1 以 50ms 数据 block 的形式计算声音的低音分量 (fn bass() )。
线程 2 通过在 tkinter 中实际创建一个具有不同左上角坐标的矩形来绘制该矩形。
flag2 保持主线程运行,而 flag 同步 bass() 和plot() 函数。代码的最后一部分是确保显示速度不会比歌曲本身快(但现在的问题恰恰相反)。

<小时/>我在这里附上代码:

import numpy as np
from scipy.io import wavfile
from numpy import fft as fft
import time
import tkinter as tk
import threading
import pyaudio
import wave

CHUNK = 1024
wf = wave.open("test3.wav", 'rb')
p = pyaudio.PyAudio()

###
def callback(in_data, frame_count, time_info, status):
data = wf.readframes(frame_count)
return (data, pyaudio.paContinue)

stream = p.open(format=p.get_format_from_width(wf.getsampwidth()),
channels=wf.getnchannels(),
rate=wf.getframerate(),
output=True,
stream_callback=callback)

####

rate,audData = wavfile.read("test3.wav")

print ("Rate "+str(rate))
print ("Length of wav file(in s) = " + str(audData.shape[0]/rate))

ch1=audData[:]
tim = 0.050
pt=int(tim*rate)

flag2 = True
flag = False
cnt = 0
value=0

def bass():
global pt
global cnt
global audData
global value
global flag2
global flag

cnt +=1
fourier=fft.fft(ch1[((cnt-1)*pt):((cnt)*pt)])
fourier = abs(fourier) / float(pt)
fourier = fourier[0:25]
fourier = fourier**2

if (cnt+1)*pt > len(audData[:]) :
flag2 = False

value = (np.sum(fourier))/pt
flag= True
return

def plot():
global value
global flag

root=tk.Tk()

canvas =tk.Canvas(root,width=200,height=500)
canvas.pack()

while True:
if flag:
canvas.delete("all")
flag=False
greenbox = canvas.create_rectangle(50,500-(value/80),150,500,fill="green")
print(value/80) # to check whether it excees 500
root.update_idletasks()
root.update()

return

def sound():
global data
global stream
global wf
global CHUNK

stream.start_stream()

while stream.is_active():
time.sleep(0.1)

stream.stop_stream()
stream.close()
wf.close()
p.terminate()


bass()
t1 = threading.Thread(target=plot, name='t_1')
t2 = threading.Thread(target=sound, name='t_2')
t1.start()
t2.start()

while flag2:
a = time.time()
bass()
b=time.time()
while (b-a) < tim :
time.sleep(0.015)
b=time.time()

为了克服这个处理速度问题,我尝试每 3 个 block 处理 1 个:

cnt +=1
fourier=fft.fft(ch1[((3*cnt-3)*pt):((3*cnt-2)*pt)])
fourier = abs(fourier) / float(pt)
fourier = fourier[0:25]
fourier = fourier**2

if (3*cnt+1)*pt > len(audData[:]) :
flag2 = False
#######
while (b-a) < 3*tim :
time.sleep(0.015)
b=time.time()

但即使这样也达不到标准。几秒钟后就可以看到延迟。关于如何改进这个问题有什么想法吗?

最佳答案

除了效率之外,更现实的解决方案可能是延迟匹配。如果您可以确定 FFT 和显示(等)过程的延迟,则可以延迟声音输出(使用一定数量的音频样本的 fifo),或者让可视化过程在由 FFT 读取的播放文件中向前查看。同等数量的样本。

关于python - 如何让这个均衡器更加高效呢?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/50576332/

30 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com