- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我正在编写一个网络应用程序,它需要将多个立体声组合成一个立体声输出,所以我想要一个相当于 gstreamer's audiomixer element 的应用程序,但 WebAudio 中似乎没有。 ChannelMerger 并没有做完全相同的事情 - 它将多个单声道信号组合成一个多声道信号。
AudioNode.connect 的文档说您可以将一个输出连接到其他节点的多个输入,并且尝试将同一输出多次连接到同一输入的尝试将被忽略。但它并没有说明如果您尝试将多个不同的输出连接到同一输入会发生什么。那会像我想要的那样充当简单的混音器吗?我怀疑不是,因为 WebAudio 提供的分离/合并功能(参见上面的 ChannelMerger)似乎主要是基于多个单声道信号和一个多声道信号之间的转换,以及一个声道到一个单声道信号的映射。
我可以采用任意节点(我想 GainNode 可以工作,我可以利用它的增益功能)并将其 channel 解释模式设置为“扬声器”以实际混合 channel ,但它仅适用于 1、2、 4 或 6 个输入。我不太可能需要超过 6 个,但我肯定需要能够处理 3 个,可能还有 5 个。这可以通过使用多个混音器来完成(例如,对于三个 channel ,在一个混音器中混合输入 1 和 2,然后在第二个混音器中将其输出与输入 3 混合),但我认为我必须添加更多 GainNode 才能正确平衡混音。混频器可能必须衰减每个输入以防止重合峰值超出范围,因此对于没有补偿的链式混频器,我最终会得到 1/4、1/4、1/2 而不是 1/3、1/3 ,1/3?
最佳答案
你几乎做对了。使用单个 GainNode
并将每个源连接到 GainNode
的单个输入。这将总结所有不同的连接并产生单个输出。如果您知道所有单独的来源都是立体声,则无需更改有关 channelInterpretation
、channelCountMode
或 channelCount
的任何内容即可获得你想要什么。
您可能必须调整 GainNode
的增益值以降低输出音量,这样您就不会过度驱动输出设备。
除此之外,这应该都有效。
关于web-audio-api - 如何使用 WebAudio 将多个立体声信号混合为一个信号?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/53684376/
我想使用webAudio制作一个简单的VU表来指示的音量元素,其中包含来自网络摄像头的实时流(使用 Janus 进行流式传输)。我从其他示例创建了以下函数。它在流初始化后调用,但 analyser.g
我从 WebRTC 获得包含音频数据的 MediaStream。我们将此流称为 srcStream。 如果我有 HTML 然后我就跑了 audioEl = document.querySelecto
我正在尝试使用 WebAudio,并使用以下 javascript 代码加载声音。 function playAudio(){ var audio = document.getElementB
这是我的代码: var ac = new webkitAudioContext(); 按下播放按钮时: var source = ac.createBufferSource(); source.buf
我正在尝试用来自慢速振荡器 sine 的脉冲调制 saw 频率。我究竟做错了什么? jsFiddle 在这里:https://jsfiddle.net/06ua9zLo/ window.AudioCo
每当我使用如下代码播放声音时 // binaryData = a wave file from a websocket let ctx = new AudioContext(); ctx.decode
我正在尝试将 webaudio 节点的输出记录到 .wav。 以前,我一直在使用 recorderjs - 它使用 scriptProcessorNode 来捕获音频数据,但现在似乎已经停止工作了。
一段时间以来,我一直遇到一个问题,在某些 iOS 设备上,我的网络音频系统似乎只能与耳机一起使用,而与其他设备(完全相同的操作系统、型号等)一样,音频通过扬声器播放得非常好或耳机。我已经搜索了解决方案
我正在尝试使用通过 WebRTC 获得的音频进行声音平移,但使用下面的代码它根本不输出任何声音。但是,当我对本地音频 MediaStream 执行相同的操作时,它会起作用。 可能是什么问题? var
我想将AudioBuffer导出到带有StereoPanner节点的wav文件中,即我向左平移声音并向左平移输出声音。我想知道是否可以导出与AudioContext关联的StereoPanner数据?
无法通过createAnalyser处理音频数据。将远程音频流连接到分析仪时,声音将静音或无法播放。这会变得固定,令人沮丧吗 最佳答案 您可以在此处看到带有远程音频和createAnalyser的完整
Byte-beats是制作低保真音乐的一种有趣方式。我想使用 WebAudio API 自己制作一些音乐。这是我当前的代码: const sampleRate = 8000; const frameC
如果我在以下 2D 排列中有一个监听器和一个平移器节点 panner ----> listener | |
我正在尝试构建一些代码,通过将一些 JavaScript 注入(inject)到页面中来处理其他页面中找到的音频。我的印象是我可以创建一个 AudioContext,然后创建一个 onaudiopro
假设我制作一个像这样的简单 Canvas 绘图应用程序: 我现在有一系列的观点。我如何将它们提供给一些 WebAudio 对象(振荡器或由字节数组或其他东西发出的声音)以实际生成并播放它们的波形(在本
如何使用 webaudio API 对振荡器停止播放后发生的事件进行编程?我试图通过更新我的 Vue 组件,在播放音符时 react 性地让数据显示在 DOM 中。我的代码如下所示:
因此,我使用 WebAudio API 显示来自麦克风的声音流的波形和 FFT。 我的问题是,在特定时刻每个数据数组有多大?例如,查看 getByteTimeDomainData来自 Analyser
我有一个合成声音的振荡器,我在不同的时间在音序器中启动它。下面的代码在我的声音开始之前运行(这段代码可以在音频开始之前运行很多次,其中时间是一个变量)。 osc.start(time); osc.st
我想使用 ScriptProcessorNode 接口(interface)处理音频,但无法写入输出缓冲区。 var node = context.createScriptProcessor(256,
每当我尝试一个简单的振荡器(检查 this example 。它不是我的,但它显示同样的问题)我在开始和结束时听到“咔哒”声。 我怎样才能绕过这个问题? 最佳答案 要停止咔嗒声,您需要平滑地斜升振荡器
我是一名优秀的程序员,十分优秀!