- xml - AJAX/Jquery XML 解析
- 具有多重继承的 XML 模式
- .net - 枚举序列化 Json 与 XML
- XML 简单类型、简单内容、复杂类型、复杂内容
我正在尝试实现一个具有两个输入 channel 和一个输出 channel 的 ScriptProcessorNode。
var source = new Array(2);
source[0] = context.createBufferSource();
source[0].buffer = buffer[0];
source[1] = context.createBufferSource();
source[1].buffer = buffer[1];
var test = context.createScriptProcessor(4096, 2, 1);
source[0].connect(test, 0, 0);
source[1].connect(test, 0, 1);
test.connect(context.destination);
source[0].start();
source[1].start();
当我在 Google Chrome 和 Mozilla Firefox 中运行此代码时,出现以下错误。它告诉我我的测试
节点只有一个输入 channel 。
Uncaught IndexSizeError: Failed to execute 'connect' on 'AudioNode': input index (1) exceeds number of inputs (1).
当我在控制台打印 ScriptProcessorNode test
的输入 channel 数时,我得到了两个输入 channel 。
test.onaudioprocess = function(evt){
console.log("number of input channels: " + evt.inputBuffer.numberOfChannels);
}
尽管如此,将两个节点连接到 test
节点的输入并不像我那样工作。我想在 ScriptProcessorNode 中编写声码器。如何创建一个具有两个输入 channel 和一个输出 channel 的 ScriptProcessorNode,并将两个源节点连接为输入 channel ,将 context.destination
连接为输出 channel ?
最佳答案
createScriptProcessor
的第二个参数是节点单个输入的输入 channel 数,而不是节点的输入数。
因此,执行此操作的方法是使用具有两个输入的 ChannelMergerNode
。将您的两个源连接到合并节点的每个输入。合并的输出应该连接到您的脚本处理器节点。 onaudioprocess
回调将被赋予一个包含两个 channel 的 AudioBuffer
。然后,您可以根据需要处理这两个 channel 。
关于javascript - 如何将两个输入 channel 连接到 ScriptProcessorNode? (网络音频 API,JavaScript),我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/37508035/
我正在尝试在 Dart 中创建一个 Web 音频脚本处理器。我注意到这个问题显示使用“javascriptnode”:ScriptProcessorNode 这似乎不存在于当前的 Dart 版本中。有
我正在研究网络音频随机振荡器,但在使用 scriptProcessorNode 时遇到了问题。我的算法使用随机游走来确定波形中的动态断点,然后在它们之间进行插值。 随着断点在x轴上的移动,我以为振荡波
我有以下 javascript 代码: var audio = null; try { window.AudioContext = window.AudioContext || window.
我正在围绕 scriptProcessorNode 振荡器构建类。我已将 onaudioprocess 事件处理程序包装在函数 Gendy.prototype.process 中。我可以从此包装函数中
我目前正在尝试使用 ScriptProcessorNode 动态降低播放速度。这是我迄今为止编写的代码(仅处理左 channel ): let processor = audioContext.cre
ScriptProcessorNode 不适用于 OfflineContext。 它适用于 Chrome、Mozilla Firefox。 它在 Edge 25、Safari 10 中不起作用。 问题
考虑以下代码: http://jsfiddle.net/LVFa6/ 未调用 ScriptProcessorNode EventHandler process。考虑在最后添加processor.con
目前我有以下代码 AudioContext = window.AudioContext || window.webkitAudioContext; context = new AudioContext
function createAudioMeter(audioContext,clipLevel,averaging,clipLag) { var processor = audioConte
这里是一个简单的 jsFiddle 链接,它使用网络音频测量实时输入的响度(它将值作为百分比输出到控制台)。 http://jsfiddle.net/XSnsF/ 我原计划只有一个输入而没有输出,因为
我正在记录来自用户的麦克风输入并进行处理。问题是我使用scriptProcessorNode来处理数据,但是here它说它已被弃用并替换为 AudioWorklet问题是没有明确的方法可以用 Audi
这里是一个简单的 jsFiddle 的链接,它使用网络音频测量实时输入的响度(它将值以百分比形式输出到控制台)。 http://jsfiddle.net/XSnsF/ 我计划只有一个输入,没有输出,因
我正在尝试获取有关麦克风数据的一些实时数据。所以我将一个 ScriptProcessorNode 连接到我的现场音频的输出,如下所示 (coffeescript): audioSource = nav
我是 html5 新手,我想使用 ScriptProcessorNode 来生成声音。我的问题是这个代码在 iPhone safari 中不起作用。但它可以在桌面上的 Safari 中运行。 var
我正在尝试使用 JavaScript 的 WebAudio API 以及其他一些 SO 文章( How to get frequency from fft result? 、 How do I obt
我正在尝试实现一个具有两个输入 channel 和一个输出 channel 的 ScriptProcessorNode。 var source = new Array(2); source[0] =
Web Audio API 规范声明 ScriptProcessorNode.bufferSize 属性值 "will be picked by the implementation if the b
我是一名优秀的程序员,十分优秀!