- iOS/Objective-C 元类和类别
- objective-c - -1001 错误,当 NSURLSession 通过 httpproxy 和/etc/hosts
- java - 使用网络类获取 url 地址
- ios - 推送通知中不播放声音
我在我的应用程序中使用 audioRecord 而不是 mediarecorder 它工作正常,但我有一个逻辑高度依赖于最大振幅,这真的很难使用 audiorecord 获得这里是我在读取缓冲区时使用的
private void writeAudioDataToFile(){
byte data[] = new byte[bufferSize];
String filename = getTempFilename();
FileOutputStream os = null;
try {
os = new FileOutputStream(filename);
} catch (FileNotFoundException e) {
// TODO Auto-generated catch block
e.printStackTrace();
}
int read = 0;
max=0;
if(null != os){
while(isRecording){
read = recorder.read(buffer, 0, bufferSize);
int ab = (buffer[0] & 0xff) << 8 | buffer[1];
amplitude = Math.abs(ab);
if(amplitude>0&&litude<25000)
isSilence=true;
else
isSilence=false;
//System.out.println(">>>>>>>>>>>"+amplitude);
if(AudioRecord.ERROR_INVALID_OPERATION != read){
try {
os.write(buffer);
} catch (IOException e) {
e.printStackTrace();
}
}
}
try {
os.close();
} catch (IOException e) {
e.printStackTrace();
}
}
}
但这对我不起作用,因为值变化非常快,我需要为 audioRecord 实现类似 getMaxAmplitude() 的东西。
最佳答案
这会做你想做的,甚至更多...然后它将最大点数输出到一个在 excel 中可读的文件。 (我自己解决了这个问题,所以时机是偶然的。)
package com.example.audiorecord;
import java.io.BufferedWriter;
import java.io.File;
import java.io.FileWriter;
import java.io.IOException;
import java.text.SimpleDateFormat;
import java.util.Calendar;
import android.app.Activity;
import android.media.AudioFormat;
import android.media.AudioRecord;
import android.media.MediaRecorder;
import android.os.Bundle;
import android.view.KeyEvent;
import android.view.Menu;
import android.view.View;
import android.widget.Button;
public class MainActivity extends Activity {
private static final int RECORDER_SAMPLERATE = 44100;
private static final int RECORDER_CHANNELS = AudioFormat.CHANNEL_IN_MONO;
private static final int RECORDER_AUDIO_ENCODING = AudioFormat.ENCODING_PCM_16BIT;
private AudioRecord recorder = null;
private Thread recordingThread = null;
private boolean isRecording = false;
private String floatString = "";
Calendar c = Calendar.getInstance();
SimpleDateFormat df = new SimpleDateFormat("ddMMMyyyy_HHmmss");
String formattedDate = df.format(c.getTime());
@Override
public void onCreate(Bundle savedInstanceState) {
super.onCreate(savedInstanceState);
setContentView(R.layout.activity_main);
setButtonHandlers();
enableButtons(false);
int bufferSize = AudioRecord.getMinBufferSize(RECORDER_SAMPLERATE,
RECORDER_CHANNELS, RECORDER_AUDIO_ENCODING);
}
private void setButtonHandlers() {
((Button) findViewById(R.id.btnStart)).setOnClickListener(btnClick);
((Button) findViewById(R.id.btnStop)).setOnClickListener(btnClick);
}
private void enableButton(int id, boolean isEnable) {
((Button) findViewById(id)).setEnabled(isEnable);
}
private void enableButtons(boolean isRecording) {
enableButton(R.id.btnStart, !isRecording);
enableButton(R.id.btnStop, isRecording);
}
int BufferElements2Rec = 1024; // want to play 2048 (2K) since 2 bytes we use only 1024
int BytesPerElement = 2; // 2 bytes in 16bit format
private void startRecording() {
final File logFile = new File("sdcard/log_"+formattedDate+".txt");
if (!logFile.exists())
{
try
{
logFile.createNewFile();
}
catch (IOException e)
{
// TODO Auto-generated catch block
e.printStackTrace();
}
}
recorder = new AudioRecord(MediaRecorder.AudioSource.MIC,
RECORDER_SAMPLERATE, RECORDER_CHANNELS,
RECORDER_AUDIO_ENCODING, BufferElements2Rec * BytesPerElement);
recorder.startRecording();
isRecording = true;
recordingThread = new Thread(new Runnable() {
public void run() {
writeAudioDataToFile(logFile);
}
}, "AudioRecorder Thread");
recordingThread.start();
}
private void writeAudioDataToFile(File logFile) {
// Write the output audio in byte
short sData[] = new short[BufferElements2Rec];
while (isRecording) {
// gets the voice output from microphone to byte format
recorder.read(sData, 0, BufferElements2Rec);
String sDataString = "";
double sDataMax = 0;
for(int i=0; i<sData.length; i++){
if(Math.abs(sData[i])>=sDataMax){sDataMax=Math.abs(sData[i]);};
sDataString += "\n" + sDataMax;
}
try
{
//BufferedWriter for performance, true to set append to file flag
BufferedWriter buf = new BufferedWriter(new FileWriter(logFile, true));
buf.append(sDataString);
buf.newLine();
buf.close();
}
catch (IOException e)
{
// TODO Auto-generated catch block
e.printStackTrace();
}
}
}
private void stopRecording() {
// stops the recording activity
if (null != recorder) {
isRecording = false;
recorder.stop();
recorder.release();
recorder = null;
recordingThread = null;
}
}
private View.OnClickListener btnClick = new View.OnClickListener() {
public void onClick(View v) {
switch (v.getId()) {
case R.id.btnStart: {
enableButtons(true);
startRecording();
break;
}
case R.id.btnStop: {
enableButtons(false);
stopRecording();
break;
}
}
}
};
@Override
public boolean onKeyDown(int keyCode, KeyEvent event) {
if (keyCode == KeyEvent.KEYCODE_BACK) {
finish();
}
return super.onKeyDown(keyCode, event);
}
@Override
public boolean onCreateOptionsMenu(Menu menu) {
// Inflate the menu; this adds items to the action bar if it is present.
getMenuInflater().inflate(R.menu.main, menu);
return true;
}
}
关于java - 为 audioRecord 实现 getMaxAmplitude,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/11700149/
Android:我想从麦克风读取缓冲区以便我可以对其执行处理,以下是我的代码 int sampleRateInHz = 8000;// 44100, 22050 and 11025 i
我正在尝试在我的 Android 应用程序中将音频读取为 16 位整数。我使用 Xamarin.android 编写了这个应用程序。我为此使用 AudioRecord 低级库,因为我需要从手机麦克风读
访问AudioRecord.Builder的正确方法是什么?在 JNI 级别? 类似于AudioRecord类。 (jclass)jni_env->NewGlobalRef(jni_env->Find
嗨,我正在构建一个应用程序,它将使用来自 MIC 的传入音频并将其与存储的声音文件进行比较。目前,我正试图掌握 AudioRecord 函数中的数据在保存到字节数组时的样子。我的问题是返回的值都是零。
我打算在 Android 4.4.2 设备上录制立体声音频。但是,通过简单的录音应用程序(使用 AudioRecord)录制的音频与提供的配置不匹配。如果设备使用默认配置值,我希望在 logcat 中
我已经构建了一个监听背景噪音的应用程序。我发现,在收听时,用户无法调用电话或使用任何其他录制音频的应用程序。我想知道是否有一种方法可以在通话之前同时允许录制音频或显式禁用声音?这将如何实现? 最佳答案
请同时查看我的其他问题,因为我认为它们是相关的: Question 1 Question 2 Question 3 这是我正在使用的代码,当我按下按钮时,它将麦克风获得的音频信号传递到扬声器: pub
我在使用 AudioRecord 时遇到问题。 我正在开发一个应用程序,需要记录来自 MIC 的一些脉冲响应并用它制作一些 DSP。 捕获的音频存储在 WAV 文件中,然后从该文件绘制。 我创建了一个
我已经在我的 android 应用程序中使用 Mic 进行了录音,当使用 AudioPlayer 类将数据流式传输进来时,它播放得非常好。我的问题是我想向该数据附加一个 wav header ,以便它
我正在使用 AudioRecord 类录制音频。我想将音频录制到我的 Assets 文件夹或资源文件夹中的特定文件中。我认为录制没有问题。但是在读取缓冲区时它显示出一些问题(它正在抛出NullPoin
我目前正在开始为 Android 编写一个软件,该软件将要测量封闭房间的混响时间。 我不得不选择 AudioRecord而不是 MediaRecorder因为它让我有机会获得原始数据。 您可能知道 A
我使用 AudioRecorder 记录了 50 毫秒(10-12KHz 频率)的线性调频信号。在安静的房间里,距离为 50/60 厘米时,信号频谱图如下所示 背景中有很多噪音,还有一些回声。我想知道
我在使用 AudioRecord for Android 时遇到了问题。我已经尽可能多地在网上找到有关它的信息,但我似乎无法进行良好的初始化。 我创建 AudioRecord 对象的代码是这样的:
我想录制音频并以 WAV 格式播放。我必须使用 AudioRecord 来完成。有人可以帮我吗? 我经历了这个例子, http://androidsourcecode.blogspot.com.au/
我编写了一个标准代码,用于使用 AudioRecord 从麦克风接收数据。这是我的代码: AudioReceiver() { int minHardwareBufferSize = Audio
我的实验是这样的:首先,我使用matlab创建一个指定的wave文件,速率为44100,这意味着任何持续1s的 fragment 都包含44100个元素,这些元素以double形式呈现。然后,我使用智
我只在 Motorola Milestone 上遇到这个问题。代码: // init recorder recordInstance = new AudioRecord(MediaRecorder.A
我正在努力解决这个问题,我已经更改了比特率以减小录制文件的大小,我的应用程序正确地将音频文件发布到服务器,但我想最小化文件大小,这是我的录制代码 private void startRecordin
我正在尝试使用 AudioRecord 从麦克风录制一些音频。录音有效,但音量太大,而且我的剪报很糟糕。我尝试使用 AutomaticGainControl,但它在我的设备上不可用。有没有其他方法可以
我看了很多关于 AudioRecorder 初始化问题的帖子,所以我用一个函数来测试每一种可能性。不幸的是,没有工作的。我应该检查什么? @Override public void onCreat
我是一名优秀的程序员,十分优秀!