- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我找到了一些使用深度学习进行音频分类的论文和幻灯片。
一些研究使用频谱图作为深度学习模型的输入。
我想知道确切和实际的实现。
我找到了 this slide .
第 67 页
据我了解,第一层节点数为24,输入为24个不同时间段的频谱图。
例如,如果一个音频事件是 2.4 秒,第一个节点是 0~0.1 秒的频谱图,第二个节点是 0.1~0.2 秒的频谱图……
我误会了吗?
我的问题:如果有 3.0 秒的音频事件,如何分类?
最佳答案
我设法使用 对时间序列数据进行分类卷积神经网络 .卷积神经网络与人工神经网络基本相同。唯一的区别是,ANN 的输入必须是 卷积 首先提取特定的特征。以直观的方式,卷积运算基本上突出了某些数据的特定特征。最好通过手电筒照射图像的不同部分来描绘它。通过这样做,我们可以突出图像的特定特征。
这就是CNN的主要思想。它本质上是为了提取空间特征而设计的。卷积操作通常是堆叠的,这意味着你有 (row,column,dimensions) 所以卷积的输出是 3 维。这个过程的缺点是计算时间长。为了减少这种情况,我们需要 池化 或 下采样这基本上减少了特征检测器的大小而不会丢失基本特征/信息。例如,在池化之前,您有 12 个 6,6 矩阵作为特征检测器。合并后,您有 12 个大小为 3,3 的卷积数据。你可以在之前反复做这两步压扁它基本上将所有这些压缩到 (n,1) 维数组中。之后,您可以执行正常的 ANN 步骤。
简而言之,可以使用 CNN 完成对时间序列数据进行分类的步骤。以下是步骤:
1.卷积
2.Pooling
3.展平
4.全连接(正常ANN步骤)
您可以随心所欲地添加卷积和池化层,但要注意训练时间。有这个video由我最喜欢的 YouTube 用户 Siraj Raval 提供。顺便说一句,我建议你使用Keras用于深度学习。传递最容易使用的深度学习库。希望能帮助到你。
关于speech-recognition - 深度学习的音频功能,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/35169706/
我只是尝试使用 Microsoft.Speech.dll; 为文本转语音运行简单的 Microsoft 示例 using System; using Microsoft.Speech.Synthesi
微软似乎提供了不少语音识别产品,我想知道它们之间的区别。 有Microsoft Speech API ,或 SAPI。但不知何故Microsoft Cognitive Service Speech A
我希望编写一个应用程序,将语音到文本转换为仓库应用程序,反之亦然。主要用例是运算符(operator)将在仓库中佩戴耳机并将指令发送回服务器并从仓库软件接收指令以拣选和打包订单。我们将使用由 Wind
我正在探索 python 中的谷歌云语音 api。我正在关注这个 link .我也提到了这个 stackoverflow link .但是我对设置环境变量感到震惊。 我做过的事情: 1.安装gclou
在尝试让 Speech to Text(IBM 语音网关 IVR 应用程序)识别字母数字字符串时,我想知道我是否可以创建一个自定义语法或实体来限制 STT 仅识别单个字母和数字,不包括完全的话。例如,
是否可以将来自Web Speech API的合成语音用作Web Audio API音频上下文中的SourceNode? 最佳答案 实际上,我问过要在Web Speech邮件列表中添加此内容,并且基本上
使用 Microsoft Speech API 转录中/大型音频文件(每个文件约 6-10 分钟)的最佳方法是什么?像批处理音频文件转录这样的东西? 我使用了 https://docs.microso
我的 .wav 文件长度只有 4 秒。即使在多次重试并在云端运行后,我仍然不断收到以下错误 * upload completely sent off: 12 out of 12 bytes
我找到了一些描述如何使用 Google 语音 API 的文章 ( http://mikepultz.com/2011/03/accessing-google-speech-api-chrome-11/
我使用 google 语音转文本 API 从音频中获取字幕,但是当音频太长时,通常超过 60 分钟,重试次数过多会失败。它说:google.api_core.exceptions.GoogleAPIC
我有一些来自 System.Speech.Recognition 的简单代码可以正常工作: using (var recognizer = new SpeechRecognitionEngine(ne
Windows 10。我在“设置”中安装了日语 TTS 语音。现在,当我在 Speech API 5.4 OneCore 中使用语音枚举时(虽然不是在 5.4 中),我得到 6 个语音: 大卫 齐拉
当我提交对太长文本的综合请求时,我收到以下错误: google.api_core.exceptions.ResourceExhausted: 429 Received message larger t
我是 C# 的新手,也是 Speech.Recognition 的新手。我搜索了很长时间的教程,但没有找到那么多,我什至不确定我是否正确包含了所有内容。 我下载了: SDK Runtime Langu
我有一个奇怪的要求,即在我现有的应用程序中我有 Text2Speech 并且为此,我使用了 AVSpeechSynthesizer 来语音文本,但现在要求改变了,现在我需要将 HTML 文件数据转换为
我使用 Google Speech API 通过 Python 识别 .OGG 文件音频中的越南语语音。但它不会返回任何结果。 最佳答案 至少在英文版的Google Speech API中,需要使用F
我想从手机录制音频,然后将其发送到谷歌语音非流媒体 API。我可以使用 Capture.captureAudio() 进行录音,但是我不知道音频编码和采样率是什么,因为它们是必需的 for the a
我使用谷歌云语音到文本 API 将音频转换为文本。 对于 .raw文件它工作正常 但是对于 .wav文件它给了我类似的错误: Google::Gax::RetryError Exception: Ga
.NET 中有两个类似的用于语音识别的命名空间和程序集。我试图了解其中的差异以及何时适合使用其中之一。 程序集 System.Speech(在 System.Speech.dll 中)有 System
通过流式 API (Performing Streaming Speech Recognition on an Audio Stream) 使用 Google Cloud Speech API, 我们
我是一名优秀的程序员,十分优秀!