- Java 双重比较
- java - 比较器与 Apache BeanComparator
- Objective-C 完成 block 导致额外的方法调用?
- database - RESTful URI 是否应该公开数据库主键?
我是 android 的新手,我一直在开发 Pitch Analyzer 应用程序(最低 SDK:8)。我读了很多关于如何实现 Audiorecord 类的文章,但我想知道为什么它在我录制时不读取任何数据。我试图显示 audioData 和 fftArray 的值,但返回零,所以我认为问题出在 read 方法上。请尝试检查这些。以下是我使用的代码:
记录.java
final Intent intent = new Intent("pitch.analyzer.PitZer.ASSESSMENT");
MediaRecorder recorder;
AudioRecord tuner;
int audioSource = MediaRecorder.AudioSource.MIC;
int sampleRateInHz = AudioTrack.getNativeOutputSampleRate(AudioManager.STREAM_SYSTEM);
int channelConfig = AudioFormat.CHANNEL_CONFIGURATION_MONO;
int audioFormat = AudioFormat.ENCODING_PCM_16BIT;
int bufferSizeInBytes = 4096;
int samples;
short[] audioBuffer;
short[] audioData;
double[] temp;
TextView fft;
TextView results;
//TextView bufferSize;
Complex[] fftTempArray;
Complex[] fftArray;
Complex[] fftInverse;
@Override
protected void onCreate(Bundle savedInstanceState) {
// TODO Auto-generated method stub
super.onCreate(savedInstanceState);
setContentView(R.layout.record);
Button start=(Button)findViewById(R.id.record);
Button stop=(Button)findViewById(R.id.stop);
fft = (TextView)findViewById(R.id.fft);
results = (TextView)findViewById(R.id.results);
//bufferSize = (TextView)findViewById(R.id.bufferSize);
audioData = new short[bufferSizeInBytes];
tuner = new AudioRecord(audioSource, sampleRateInHz, channelConfig, audioFormat, bufferSizeInBytes);
//final AudioRecorder recorder = new AudioRecorder("/audiometer/temp");
start.setOnClickListener(new OnClickListener() {
public void onClick(View v) {
acquire();
computeFFT();
display();
}
});
//….wait a while
stop.setOnClickListener(new OnClickListener() {
public void onClick(View v) {
startActivity(intent);
}
});
}
public void acquire(){
try {
tuner.startRecording();
samples = tuner.read(audioData, 0, bufferSizeInBytes);
}
catch (Throwable t){
}
}
public void computeFFT(){
//Conversion from short to double
double[] micBufferData = new double[bufferSizeInBytes];//size may need to change
final int bytesPerSample = 2; // As it is 16bit PCM
final double amplification = 100.0; // choose a number as you like
for (int index = 0, floatIndex = 0; index < bufferSizeInBytes - bytesPerSample + 1; index += bytesPerSample, floatIndex++) {
double sample = 0;
for (int b = 0; b < bytesPerSample; b++) {
int v = audioData[index + b];
if (b < bytesPerSample - 1 || bytesPerSample == 1) {
v &= 0xFF;
}
sample += v << (b * 8);
}
double sample32 = amplification * (sample / 32768.0);
micBufferData[floatIndex] = sample32;
}
//Create Complex array for use in FFT
fftTempArray = new Complex[bufferSizeInBytes];
for (int i=0; i<bufferSizeInBytes; i++)
{
fftTempArray[i] = new Complex(micBufferData[i], 0);
}
//Obtain array of FFT data
fftArray = FFT.fft(fftTempArray);
fftInverse = FFT.ifft(fftTempArray);
double[] freq2 = new double[fftArray.length];
//Create an array of magnitude of fftArray
double[] magnitude = new double[fftArray.length];
for (int i=0; i<fftArray.length; i++){
magnitude[i]= fftArray[i].abs();
freq2[i] = ComputeFrequency(magnitude[i]);
}
fft.setTextColor(Color.BLUE);
//fft.setText("fftArray is "+ fftArray[500] +" and fftTempArray is "+fftTempArray[500] + " and fftInverse is "+fftInverse[500]+" and audioData is "+audioData[500]+ " and magnitude is "+ magnitude[1] + ", "+magnitude[500]+", "+magnitude[1000]+ " and freq2 is "+ freq2[1]+" You rock dude!");
/*for(int i = 2; i < samples; i++){
fft.append(" " + magnitude[i] + " Hz");
}
for(int i = 2; i < samples; i++){
fft.append(" " + freq2[i] + " Hz");
}
*/
}
private double ComputeFrequency(double arrayIndex) {
return ((1.0 * sampleRateInHz) / (1.0 * 100)) * arrayIndex;
}
public void display(){
results.setTextColor(Color.BLUE);
results.setText("results: "+audioData[1]+"");
for(int i = 2; i < samples; i++){
results.append(" " + audioData[i]);
}
results.invalidate();
//fft.setTextColor(Color.GREEN);
fft.setText("sampleRateInHz: "+sampleRateInHz);
fft.append("\nfftArray: "+fftArray[0]+" Hz");
for(int i = 1; i < samples; i++){
fft.append(" " + fftArray[i] + " Hz");
}
fft.append("\naudioData: "+audioData[1]);
fft.append("\nsamples: "+samples);
//fft.invalidate();
}
public void stop() throws IOException {
tuner.stop();
//audioInput.reset();
tuner.release();
//recorder.stop();
//recorder.reset();
//recorder.release();
}
最佳答案
在从设备读取之前,您应该开始录制(并在完成后停止)。
这是我用于简单阅读的代码:
short[] audioData = new short[bufferSize];
int offset =0;
int shortRead = 0;
//start tapping into the microphone
audioRecored.startRecording();
//start reading from the microphone to an internal buffer - chuck by chunk
while (offset < bufferSize)
{
shortRead = audioRecored.read(audioData, offset ,bufferSize - offset);
offset += shortRead;
}
//stop tapping into the microphone
audioRecored.stop();
关于Android - AudioRecord 类不读取数据,audioData 和 fftArray 返回零,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/9742259/
Android:我想从麦克风读取缓冲区以便我可以对其执行处理,以下是我的代码 int sampleRateInHz = 8000;// 44100, 22050 and 11025 i
我正在尝试在我的 Android 应用程序中将音频读取为 16 位整数。我使用 Xamarin.android 编写了这个应用程序。我为此使用 AudioRecord 低级库,因为我需要从手机麦克风读
访问AudioRecord.Builder的正确方法是什么?在 JNI 级别? 类似于AudioRecord类。 (jclass)jni_env->NewGlobalRef(jni_env->Find
嗨,我正在构建一个应用程序,它将使用来自 MIC 的传入音频并将其与存储的声音文件进行比较。目前,我正试图掌握 AudioRecord 函数中的数据在保存到字节数组时的样子。我的问题是返回的值都是零。
我打算在 Android 4.4.2 设备上录制立体声音频。但是,通过简单的录音应用程序(使用 AudioRecord)录制的音频与提供的配置不匹配。如果设备使用默认配置值,我希望在 logcat 中
我已经构建了一个监听背景噪音的应用程序。我发现,在收听时,用户无法调用电话或使用任何其他录制音频的应用程序。我想知道是否有一种方法可以在通话之前同时允许录制音频或显式禁用声音?这将如何实现? 最佳答案
请同时查看我的其他问题,因为我认为它们是相关的: Question 1 Question 2 Question 3 这是我正在使用的代码,当我按下按钮时,它将麦克风获得的音频信号传递到扬声器: pub
我在使用 AudioRecord 时遇到问题。 我正在开发一个应用程序,需要记录来自 MIC 的一些脉冲响应并用它制作一些 DSP。 捕获的音频存储在 WAV 文件中,然后从该文件绘制。 我创建了一个
我已经在我的 android 应用程序中使用 Mic 进行了录音,当使用 AudioPlayer 类将数据流式传输进来时,它播放得非常好。我的问题是我想向该数据附加一个 wav header ,以便它
我正在使用 AudioRecord 类录制音频。我想将音频录制到我的 Assets 文件夹或资源文件夹中的特定文件中。我认为录制没有问题。但是在读取缓冲区时它显示出一些问题(它正在抛出NullPoin
我目前正在开始为 Android 编写一个软件,该软件将要测量封闭房间的混响时间。 我不得不选择 AudioRecord而不是 MediaRecorder因为它让我有机会获得原始数据。 您可能知道 A
我使用 AudioRecorder 记录了 50 毫秒(10-12KHz 频率)的线性调频信号。在安静的房间里,距离为 50/60 厘米时,信号频谱图如下所示 背景中有很多噪音,还有一些回声。我想知道
我在使用 AudioRecord for Android 时遇到了问题。我已经尽可能多地在网上找到有关它的信息,但我似乎无法进行良好的初始化。 我创建 AudioRecord 对象的代码是这样的:
我想录制音频并以 WAV 格式播放。我必须使用 AudioRecord 来完成。有人可以帮我吗? 我经历了这个例子, http://androidsourcecode.blogspot.com.au/
我编写了一个标准代码,用于使用 AudioRecord 从麦克风接收数据。这是我的代码: AudioReceiver() { int minHardwareBufferSize = Audio
我的实验是这样的:首先,我使用matlab创建一个指定的wave文件,速率为44100,这意味着任何持续1s的 fragment 都包含44100个元素,这些元素以double形式呈现。然后,我使用智
我只在 Motorola Milestone 上遇到这个问题。代码: // init recorder recordInstance = new AudioRecord(MediaRecorder.A
我正在努力解决这个问题,我已经更改了比特率以减小录制文件的大小,我的应用程序正确地将音频文件发布到服务器,但我想最小化文件大小,这是我的录制代码 private void startRecordin
我正在尝试使用 AudioRecord 从麦克风录制一些音频。录音有效,但音量太大,而且我的剪报很糟糕。我尝试使用 AutomaticGainControl,但它在我的设备上不可用。有没有其他方法可以
我看了很多关于 AudioRecorder 初始化问题的帖子,所以我用一个函数来测试每一种可能性。不幸的是,没有工作的。我应该检查什么? @Override public void onCreat
我是一名优秀的程序员,十分优秀!