- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我正在尝试使用 JavaScript 的 WebAudio API 以及其他一些 SO 文章( How to get frequency from fft result? 、 How do I obtain the frequencies of each value in an FFT? )来确定输入信号(来自音调发生器,或者可能是乐器)的基频,但是我似乎只能确定大约 5-10Hz 内的频率。
我正在使用适用于 iPad 的信号发生器应用程序进行测试,该应用程序位于安静房间内的高质量麦克风旁边。
对于 500Hz,它始终返回 506;对于 600Hz,我得到 592。1kHz 是 1001Hz,但 2kHz 是 1991。我还注意到,在看到来自 FFT 的数据发生任何变化之前,我可以将频率调制 5Hz(以 1Hz 为增量)。我只能通过对两个最高的 bin 进行平均来得到这个准确度。
这是否意味着 FFT 数据的分辨率不足以准确确定 1Hz 以内的基频,还是我的处理方式有误?
我试过使用两个原生 FFT 库(例如,像这样):
var fFrequencyData = new Float32Array(analyser.frequencyBinCount);
analyser.getFloatFrequencyData(fFrequencyData);
(你可以假设我已经正确初始化并连接了一个 Analyzer 节点),它只显示大约
的灵敏度/分辨率并且还使用 DSP.js 的 FFT 库,如下所示:
var fft = new FFT();
fft.forward(e.inputBuffer.getChannelData(0));
fFrequencyData = fft.spectrum;
其中 e
是传递给 onaudioprocess
的事件对象。
我似乎对 FFT 数据(如 FFT::spectrum)为空有疑问 - 这正常吗?来自 fft.spectrum 的数据毫无意义,除非我通过 analyser.getFloatFrequencyData
运行它,我认为这会用原生 FFT 的内容覆盖数据,从而完全违背目的?
希望有人能帮助我指引正确的方向 - 谢谢! :)
最佳答案
您需要非常大的 FFT 才能通过这种方式获得高质量的音调检测。例如,要获得 1Hz 的分辨率和 44,100kHz 的采样率,您需要 64k(-ish) FFT 大小。最好使用自相关来进行单音音高检测。
关于JavaScript - WebAudio API ScriptProcessorNode InputBuffer getChannelData 精度,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/24104082/
我想使用webAudio制作一个简单的VU表来指示的音量元素,其中包含来自网络摄像头的实时流(使用 Janus 进行流式传输)。我从其他示例创建了以下函数。它在流初始化后调用,但 analyser.g
我从 WebRTC 获得包含音频数据的 MediaStream。我们将此流称为 srcStream。 如果我有 HTML 然后我就跑了 audioEl = document.querySelecto
我正在尝试使用 WebAudio,并使用以下 javascript 代码加载声音。 function playAudio(){ var audio = document.getElementB
这是我的代码: var ac = new webkitAudioContext(); 按下播放按钮时: var source = ac.createBufferSource(); source.buf
我正在尝试用来自慢速振荡器 sine 的脉冲调制 saw 频率。我究竟做错了什么? jsFiddle 在这里:https://jsfiddle.net/06ua9zLo/ window.AudioCo
每当我使用如下代码播放声音时 // binaryData = a wave file from a websocket let ctx = new AudioContext(); ctx.decode
我正在尝试将 webaudio 节点的输出记录到 .wav。 以前,我一直在使用 recorderjs - 它使用 scriptProcessorNode 来捕获音频数据,但现在似乎已经停止工作了。
一段时间以来,我一直遇到一个问题,在某些 iOS 设备上,我的网络音频系统似乎只能与耳机一起使用,而与其他设备(完全相同的操作系统、型号等)一样,音频通过扬声器播放得非常好或耳机。我已经搜索了解决方案
我正在尝试使用通过 WebRTC 获得的音频进行声音平移,但使用下面的代码它根本不输出任何声音。但是,当我对本地音频 MediaStream 执行相同的操作时,它会起作用。 可能是什么问题? var
我想将AudioBuffer导出到带有StereoPanner节点的wav文件中,即我向左平移声音并向左平移输出声音。我想知道是否可以导出与AudioContext关联的StereoPanner数据?
无法通过createAnalyser处理音频数据。将远程音频流连接到分析仪时,声音将静音或无法播放。这会变得固定,令人沮丧吗 最佳答案 您可以在此处看到带有远程音频和createAnalyser的完整
Byte-beats是制作低保真音乐的一种有趣方式。我想使用 WebAudio API 自己制作一些音乐。这是我当前的代码: const sampleRate = 8000; const frameC
如果我在以下 2D 排列中有一个监听器和一个平移器节点 panner ----> listener | |
我正在尝试构建一些代码,通过将一些 JavaScript 注入(inject)到页面中来处理其他页面中找到的音频。我的印象是我可以创建一个 AudioContext,然后创建一个 onaudiopro
假设我制作一个像这样的简单 Canvas 绘图应用程序: 我现在有一系列的观点。我如何将它们提供给一些 WebAudio 对象(振荡器或由字节数组或其他东西发出的声音)以实际生成并播放它们的波形(在本
如何使用 webaudio API 对振荡器停止播放后发生的事件进行编程?我试图通过更新我的 Vue 组件,在播放音符时 react 性地让数据显示在 DOM 中。我的代码如下所示:
因此,我使用 WebAudio API 显示来自麦克风的声音流的波形和 FFT。 我的问题是,在特定时刻每个数据数组有多大?例如,查看 getByteTimeDomainData来自 Analyser
我有一个合成声音的振荡器,我在不同的时间在音序器中启动它。下面的代码在我的声音开始之前运行(这段代码可以在音频开始之前运行很多次,其中时间是一个变量)。 osc.start(time); osc.st
我想使用 ScriptProcessorNode 接口(interface)处理音频,但无法写入输出缓冲区。 var node = context.createScriptProcessor(256,
每当我尝试一个简单的振荡器(检查 this example 。它不是我的,但它显示同样的问题)我在开始和结束时听到“咔哒”声。 我怎样才能绕过这个问题? 最佳答案 要停止咔嗒声,您需要平滑地斜升振荡器
我是一名优秀的程序员,十分优秀!