作者热门文章
- iOS/Objective-C 元类和类别
- objective-c - -1001 错误,当 NSURLSession 通过 httpproxy 和/etc/hosts
- java - 使用网络类获取 url 地址
- ios - 推送通知中不播放声音
我需要流式传输运行时生成的 PCM 数据。所以我有一个带循环的线程
public void run() {
while(...) {
mAudioTrack.write(getPCM(), ...);
}
}
不幸的是,这不起作用。它似乎不依赖于 AudioTrack 缓冲区大小。我希望它非常小以模拟某种低延迟行为(150 毫秒),以便用户可以动态更改 getPCM() 选取的 PCM
int bufferSize = 0.150 * sampleRate * channels * bitsPerSample / 8;
但是,我尝试将缓冲区大小增加到 100k,但没有结果
最佳答案
这是对我有用的简短示例:
public class Internal extends Activity
{
@Override
protected void onCreate(Bundle savedInstanceState)
{
super.onCreate(savedInstanceState);
setContentView(R.layout.main);
}
public void onPlayClicked(View v)
{
start();
}
public void onStopClicked(View v)
{
stop();
}
boolean m_stop = false;
AudioTrack m_audioTrack;
Thread m_noiseThread;
Runnable m_noiseGenerator = new Runnable()
{
public void run()
{
Thread.currentThread().setPriority(Thread.MIN_PRIORITY);
/* 8000 bytes per second, 1000 bytes = 125 ms */
byte [] noiseData = new byte[1000];
Random rnd = new Random();
while(!m_stop)
{
rnd.nextBytes(noiseData);
m_audioTrack.write(noiseData, 0, noiseData.length);
}
}
};
void start()
{
m_stop = false;
/* 8000 bytes per second*/
m_audioTrack = new AudioTrack(AudioManager.STREAM_MUSIC, 8000, AudioFormat.CHANNEL_OUT_MONO,
AudioFormat.ENCODING_PCM_8BIT, 8000 /* 1 second buffer */,
AudioTrack.MODE_STREAM);
m_audioTrack.play();
m_noiseThread = new Thread(m_noiseGenerator);
m_noiseThread.start();
}
void stop()
{
m_stop = true;
m_audioTrack.stop();
}
}
关于java - 流模式下的 AudioTrack MODE_STREAMING,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/6179392/
我正在用Android制作鼓音序器... 我正在AudioTrack中写入MODE_STREAM,以便可以使用所有InputStreams实现同步音频播放(可通过“ Activity ” InputS
我需要流式传输运行时生成的 PCM 数据。所以我有一个带循环的线程 public void run() { while(...) { mAudioTrack.write(getPCM(),
我已经被这个问题困了好几天了。我现在所处的阶段只是试图获得一个可以构建的工作示例,但我什至无法达到这一点。 我的问题是基于 this example .我已将源代码(和解决方案)包含到我自己的代码中,
我是一名优秀的程序员,十分优秀!