gpt4 book ai didi

audio - Google 的 WebRTC VAD 算法(特别是 "aggressiveness")

转载 作者:行者123 更新时间:2023-12-03 11:15:24 37 4
gpt4 key购买 nike

我知道 Google 的 WebRTC VAD 算法使用高斯混合模型 (GMM),但是我的数学知识很弱,所以我不太明白这意味着什么。说它是一种基于统计的机器学习模型是否正确,对于 VAD 来说,它是一种经过训练可以识别语音与噪声的模型吗?

我正在写一篇论文,我已经创建了一个脚本,该脚本利用 API 来区分语音和噪音。它有效,但我需要在我的论文中从一个非常基本的层面解释它用来做出决定的机制。

最紧迫的是,我需要在某种程度上知道“攻击性”设置对算法的作用。它实际上只是规定了一个置信度阈值吗?它有任何声学影响吗?

更新:

我的超基本理解是:谷歌可能在一堆预先标记的“噪音”和“语音”上训练他们的模型并存储每个的特征;然后它采用一个未知样本,看看它更像噪音还是语音数据。我不知道测量的特征是什么,但我认为至少测量了音高和幅度。

它使用 GMM 来计算它属于一个群体或另一个群体的概率。

侵略性可能会设置用于做出决定的阈值,但我不完全知道这部分是如何工作的。

相关代码在这里:https://chromium.googlesource.com/external/webrtc/+/refs/heads/master/common_audio/vad/vad_core.c

“aggressiveness”设置确定以下常数(我显示模式 0 和 3 以进行比较):

// Constants used in WebRtcVad_set_mode_core().
//
// Thresholds for different frame lengths (10 ms, 20 ms and 30 ms).
//
// Mode 0, Quality.
static const int16_t kOverHangMax1Q[3] = { 8, 4, 3 };
static const int16_t kOverHangMax2Q[3] = { 14, 7, 5 };
static const int16_t kLocalThresholdQ[3] = { 24, 21, 24 };
static const int16_t kGlobalThresholdQ[3] = { 57, 48, 57 };

// Mode 3, Very aggressive.
static const int16_t kOverHangMax1VAG[3] = { 6, 3, 2 };
static const int16_t kOverHangMax2VAG[3] = { 9, 5, 3 };
static const int16_t kLocalThresholdVAG[3] = { 94, 94, 94 };
static const int16_t kGlobalThresholdVAG[3] = { 1100, 1050, 1100 };

我不太明白悬垂和本地/全局阈值是如何起作用的。这些是严格的统计参数吗?

最佳答案

跟踪代码,您会看到上面列出的预设 4 个值,它们根据“攻击性”而变化:kOverHangMax{1,2}*, kLocalThreshold*, kGlobalThreshold*这些映射到这 4 个内部数组(以侵略性为索引):

self->over_hang_max_1[], self->over_hang_max_2[], self->individual[], self->total[]

进一步查看 vad_core.c 中的第 158 行,我们看到根据帧长度使用不同的值。 frame_length是正在分析的音频的“原子”或“块”:
// Set various thresholds based on frame lengths (80, 160 or 240 samples).
if (frame_length == 80) {
overhead1 = self->over_hang_max_1[0];
overhead2 = self->over_hang_max_2[0];
individualTest = self->individual[0];
totalTest = self->total[0];
} else if (frame_length == 160) {
overhead1 = self->over_hang_max_1[1];
overhead2 = self->over_hang_max_2[1];
individualTest = self->individual[1];
totalTest = self->total[1];
} else {
overhead1 = self->over_hang_max_1[2];
overhead2 = self->over_hang_max_2[2];
individualTest = self->individual[2];
totalTest = self->total[2];
}

直觉

因此,音频块(240 个样本)越大,算法越“激进”,而 80 个样本帧越小,则“不那么激进”:但这是为什么呢?直觉是什么?

calling-code (使用 vad_core )为它提供 frames_length音频块。因此,如果您使用 VAD 播放的音频文件时长为 10 分钟,则该音频上的滑动窗口将生成 frame_length块并将其传递给此代码。

当音频以 8000Hz 采样率运行时, frame_length小 (80),分辨率 (10ms) 是细粒度的,VAD 信号将非常精确。更改将被准确跟踪,VAD 估计将是“合理的”...当 frame_length大 (240) 则分辨率更“粗”,并且 VAD 信号与信号语音事件的微小(<30 毫秒)变化不协调……因此“不那么谨慎”。

因此,与其说攻击性,我宁愿谈论它如何“谨慎”或“自信”地跟踪它正在估计的潜在语音信号。

我希望这有助于推理它在做什么。至于值本身,它们只是由于不同大小的音频帧而变化的算法细节。

关于audio - Google 的 WebRTC VAD 算法(特别是 "aggressiveness"),我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/55656626/

37 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com