gpt4 book ai didi

java - Android 中音频信号的 FFT 解码器

转载 作者:行者123 更新时间:2023-11-30 00:35:56 26 4
gpt4 key购买 nike

我正在尝试在 android 中为发布的项目制作一个解码器 https://github.com/rraval/pied-piper他们已经在 python 中创建了一个解码器,在 python 中使用 numpy 包非常容易,但在 Java 中我遇到了困难。在 python 中使用的步骤包括:

def dominant(frame_rate,chunk):
w=numpy.fft.fft(chunk)
numpy.fft.fftfreq(len(chunk))
peak_coeff = numpy.argmax(numpy.abs(w))
peak_freq = freqs[peak_coeff]
return abs(peak_freq * frame_rate) # in Hz

以上代码以 block [ ] 的形式返回音频数据的频率。

我正在尝试编写实现相同逻辑的 Android 代码。到目前为止,我的工作如下:

public class MicReadThread3 extends Thread {

static final int HANDSHAKE_START_HZ = 8192;
static final int HANDSHAKE_END_HZ = 8192 + 512;
static final int START_HZ = 1024;
static final int STEP_HZ = 256;
static final int BITS = 4;
static final int FEC_BYTES = 4;
static final int sample_size=8;
boolean callBack_done=false;

private static final int AUDIO_SOURCE = MediaRecorder.AudioSource.MIC;
private static final int SAMPLE_RATE = 44100; // Hz
private static final int ENCODING = AudioFormat.ENCODING_PCM_16BIT;
private static final int CHANNEL_MASK = AudioFormat.CHANNEL_IN_MONO;
private static final int BUFFER_SIZE = AudioRecord.getMinBufferSize(SAMPLE_RATE, CHANNEL_MASK, ENCODING);
private static final int blockSize=BUFFER_SIZE;



public MicReadThread3(){
setPriority(Thread.MAX_PRIORITY);
}

@Override
public void run(){

System.out.println("Buffer Size : "+BUFFER_SIZE);
AudioRecord audioRecord=null;
double dom;
byte[] buffer=new byte[blockSize];
short[] bufferShort =new short[blockSize];
audioRecord = new AudioRecord(AUDIO_SOURCE, SAMPLE_RATE, CHANNEL_MASK, ENCODING, BUFFER_SIZE);
audioRecord.startRecording();
while(true){
audioRecord.read(buffer, 0, blockSize);
dom = dominant(SAMPLE_RATE, buffer);
System.out.println("Dominant="+dom);
if(match(dom,HANDSHAKE_START_HZ)){
System.out.println("Found Handshake start freq :"+dom);
}

if(match(dom,HANDSHAKE_END_HZ)){
System.out.println("Found Handshake end freq :"+dom);
}
}

}

public boolean match(double freq1, double freq2) {
return Math.abs(freq1 - freq2) < 20;
}

public double dominant(int frame_rate, byte[] chunk){
int len=chunk.length;
double[] waveTransformReal=new double[len];
double[] waveTransformImg=new double[len];
for(int i=0;i<len;i++){
waveTransformReal[i]=chunk[i];
}

Fft.transform(waveTransformReal,waveTransformImg);

//Calculating abs
double[] abs=new double[len];

for(int i=0;i<len;i++) {
abs[i] = (Math.sqrt(waveTransformReal[i] * waveTransformReal[i] + waveTransformImg[i] * waveTransformImg[i]));

}
int maxIndex=0;
for(int i=0;i<len;i++) {
if (abs[i] > abs[maxIndex])
maxIndex = i;
}
//frame_rate is sampling freq and len is no. of datapoints
double dominantFrequency=(maxIndex*frame_rate)/len;
return dominantFrequency;
}

我用来获取 Fft 的类可以在下面给出的链接中找到: https://www.nayuki.io/res/free-small-fft-in-multiple-languages/Fft.java

如果它等于握手频率,我必须打印主频率。

但是当我打印这些值时,我得到的只是垃圾频率值,例如 1000,42050,2000,...

在 python 中,代码很好,但在 android 中,它变得越来越难...... 请帮忙,我的项目提交必须在下周完成。这只是我项目的一部分,我们因为这个问题而落后了!提前致谢。

最佳答案

我原来的回答太快了

    double dominantFrequency=(maxIndex*frame_rate)/len;

引用您的评论,我再次查看了 github 代码与您发布的代码之间的差异:github 请求 8 位音频,这里是 ENCODING_PCM_16BIT。

因此 waveTransformReal[] 中的每个值都只是部分值,因为它取自 chunk[] 字节数据,其中 2 个字节构成完整值。作为快速测试,请尝试使用 ENCODING_PCM_8BIT 并查看您是否获得正确的结果。

关于java - Android 中音频信号的 FFT 解码器,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/43410827/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com