gpt4 book ai didi

java - 在android中的webrtc中使用噪声抑制模块

转载 作者:太空狗 更新时间:2023-10-29 13:28:51 28 4
gpt4 key购买 nike

我正在 android 中开发一个说话人识别应用程序,我想在使用说话人识别算法对其进行分析之前处理来自麦克风的音频输入。我偶然发现了 WebRTC 中的噪声抑制模块。我已经使用 JNI 在 android 中进行了设置。

我对模块中的函数 WebRtcNs_Process 有疑问。在头文件中,它说 int WebRtcNs_Process(NsHandle* NS_inst, short* spframe, short* spframe_H, short* outframe, short* outframe_H);

根据头文件,
spframe :指向L波段的语音帧缓冲区的指针
spframe_H :指向H波段的语音帧缓冲区的指针
outframe:指向L band输出帧的指针
outframe_H:指向H 波段

输出帧的指针

有谁知道这些参数指的是什么? aka 什么是L 波段H 波段? L波段语音帧缓冲器和H波段语音帧缓冲器有什么区别?

谢谢!!

最佳答案

对于那些遇到这个问题的人,如果你看一下 WebRTC 中的 audio_processing 模块,你会发现它只对 super-wb 进行频带分割。 , 即 32kHz 采样率。

因此,如果您使用 8kHz 或 16kHz 采样率,您可以将 spframe_H 和 outframe_H 设置为 NULL,并将 spframe 和 outframe 设置为您的原始音频数据。如果您使用的是 32kHz,那么您需要将频段拆分为 here

关于java - 在android中的webrtc中使用噪声抑制模块,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/18343359/

28 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com