gpt4 book ai didi

android - 使用 OpenSL 在 Android 中进行语音通话

转载 作者:搜寻专家 更新时间:2023-11-01 08:55:48 29 4
gpt4 key购买 nike

我正在为我的论文做一个 VoIP 应用程序。我想知道是否有人可以帮助我解决这种情况:我有两个线程,AudioThread 和 AudioSendThread。第一个是通过 DatagramSocket 接收音频数据包并在手机中播放的监听器。第二个是一个录音机,可以抓取 20 毫秒的声音并将其发送到另一个设备。我已经用 Java 实现了它,但它真的很慢,所以我决定尝试 OpenSL,但我没有找到任何此类文档。

这是音频发送线程

public class AudioSendThread implements Runnable {
private final static String TAG = "AudioSndThread";
private boolean createdAudioP = false;
private DatagramSocket audioSndSocket;
private String ipAddr;
private byte[] buffer;

public AudioSendThread(Object o){
this.ipAddr = //getting IpAddress
audioSndSocket = (DatagramSocket)o;
}

@Override
public void run() {
if(!createdAudioP)
createdAudioP = createAudioRecorder();
if(createdAudioP)
startRecording();
DatagramPacket packet = null;
while(true){
byte[] buffer = readAudio(20); //read 20 milliseconds of audio, this is the one i would like to implement in OpenSL
try {
packet = new DatagramPacket(buffer, buffer.length, InetAddress.getByName(this.ipAddr), PORT.AUDIO);
audioSndSocket.send(packet);
} catch (IOException e) {
Log.e(TAG, e.getMessage());
return;
}

}
}

public static native void startRecording();
public static native boolean createAudioRecorder();
public static native byte[] readAudio(int millis);

static {
System.loadLibrary("SoundUtils");
}}

还有这个 AudioThread

public class AudioThread implements Runnable{
private DatagramSocket audioServSock;

@Override
public void run() {
createBufferQueueAudioPlayer();
DatagramPacket packet = null;
Thread audioSndThread = null;
try {
this.audioServSock = new DatagramSocket(PORT.AUDIO);
} catch (SocketException e1) {
e1.printStackTrace();
}
if(true){
audioSndThread = new Thread(new AudioSendThread(this.audioServSock));
audioSndThread.start();
}
byte[] buffer = new buffer[1500]; //random size
packet = new DatagramPacket(buffer, 1500);
while(true){
try {
audioServSock.receive(packet);
playAudio(buffer, packet.getLength()); //other method i would like to implement in OpenSL
} catch (IOException e) {
Log.e(TAG, Log.getStackTraceString(e));
return;
}
}
at.stop();
at.release();
}

public static native void createBufferQueueAudioPlayer();
public static native void playAudio(byte[] buffer, int length);

/** Load jni .so on initialization */
static {
System.loadLibrary("native-audio-jni");
}

其他native方法由NDK的NativeAudio示例采用

感谢大家的建议!

最佳答案

您尝试了 Android-NDK 提供的 native 音频示例代码,这意味着您熟悉 JNI 调用。这是 Victor Lazzarini 的一篇不错的博客,其中描述了他使用 OpenSL ES 进行语音通信的音频流的方法。

Android audio streaming with OpenSL ES and the NDK.

您可以从here. 下载源代码。按照说明在您的设备中运行它。

关于android - 使用 OpenSL 在 Android 中进行语音通话,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/19034735/

29 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com