- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我目前正在尝试理解并更好地理解以下方法之间的关系
listener.setPosition(x,y,z);
panner.setPosition(x,y,z);
从现在开始,我将描述我认为我所知道的,希望一些人会告诉我我错在哪里并纠正我。
现在,在最基本的情况下,我想象一个具有这两个“位置”的球体在中间占据同一个位置。在某种程度上,您可以将 panner.setPosition 和 listener.setPosition() 视为我们假设球体中的两个物理“事物”。
现在,当您更改一个坐标时,您会相对于另一个移动它。
所以混淆的一点就是这个。据我了解,这两种方法的坐标不是任何特定值,但是与 1 和 -1 确定中间 0 的范围的 x 值不同,z 索引实际上似乎确实有一个值,因此,如果我给它一个正值,它确实会“将声音推得更远”(或者更确切地说 - 衰减它)。例如,0 很近,200 很远。这是什么值(value)?
部分答案:
1 到 -1 很难向右/向左的原因是因为 z 设置为零,因此听者与声像节点表示的“声源”之间的空间为 0。我仍然不清楚 z 索引的“值”是多少。
我的其他问题:
1.
如果您有一个假想的“世界”,其中一个假想的人正在靠近或远离声源,您应该对听众的 z 坐标进行编程还是对声相器的 z 坐标进行编程。我问这个的原因是因为 in this example声像器已编程,听者停留在同一个地方,但 UI 提示听者正在向声源移动。我想这个问题更多的是关于最佳实践,因为它似乎都行得通。
2.当我通过默认声相器节点运行任何声音时,它听起来确实不同(更加低沉和“密集”,几乎就像同一音频文件的两个实例同时播放或高音被抵消一样)。我假设因为是这种情况,所以程序员应该知道一些“设置”的高潮来解决这个问题。我很想知道 that 是什么。
如果你想要一个并排的例子,下面是两个 JSfiddle 例子。一个使用平移器节点,一个不使用。打开它们并在耳机中聆听的同时并排播放文件,差异很细微但很明显。
最佳答案
0 is close and 200 is far for example. What value is this?
我认为数字是任意单位。关于 distanceModel 的部分给出了根据声源和听者之间的距离计算增益变化的公式。
规范还提到“PannerNode 将输入音频信号缩放/乘以 distanceGain”
您问题的答案:
Q1。 - 你应该对听众的 z 坐标进行编程还是对平移器的 z 坐标进行编程
这实际上取决于您的应用程序。 API 设计为每个 AudioContext
有一个 Listener
。但是您可以创建多个 AudioSources,每个 AudioSources 都附加一个 PannerNode。您可以将其想象成一堆可以在 3D 空间中放置的扬声器(AudioSources),但您自己(Listener)也可以四处移动。在这种情况下,取决于您是否希望声源相对于彼此移动,您可能希望也可能不希望听者移动。
Q2。 - 听起来不一样(更加低沉和“密集”)
我不确定。我以前没有遇到过这个。你能举个例子/演示吗?
基于 trying the various panning models ,似乎低沉的音频是使用 HRTF
平移模型的结果。 HRTF 脉冲响应肯定没有平坦的频率响应,并且会使音频变色。您可以改用 equalpower
平移模型。
请注意,尽管在即将到来的 WebAudio 更改中,其中很多事情都会发生变化。您可以在这里阅读更多相关信息 https://github.com/WebAudio/web-audio-api/issues/372
关于javascript - 如何理解 Web Audio API panner 节点的 "distance"方法之间的关系,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/26645235/
我有一个小型WordPress网站。我做了很多音频工作,并且试图在WordPress的博客条目中发布HTML5音频剪辑。由于某种原因,它不起作用。它可能与我在WordPress网站上使用的样式有关,但
我在让 html5 标签与 Web Audio API .createMediaElementSource() 方法配合使用时遇到问题。请参阅下面的 jsFiddle/代码。任何想法这里出了什么问题将
我尝试安装ffmpeg $ brew install ffmpeg 并运行 ffmpeg $ ffmpeg -i audio.m4a -ar 8000 -ab 12.2k audio.amr 我收到以
我已使用Web Audio API中的getByteFrequencyData方法使用了来自Analyzer节点的FFT数据来创建频谱可视化器,如下所示: 在这种情况下,我有256个数据箱。这个数字到
Google VR刚刚为wwise制作了一个VR插件: https://developers.google.com/vr/audio/wwise-getting-started https://git
如何将新记录追加到现有记录中的选定位置或特定位置? 例如,有一个5秒的录制,我想再次录制,但是将此录制追加到先前录制的特定位置,说出来:在3秒钟的录制长度之后追加此录制。 最佳答案 您可以使用getC
我们基于 Raspberry Pi 和 omxplayer 构建简单的网络控制视频播放器。我们遇到的问题是任何使用 ffmpeg 转码的文件都有音频不同步。在 iPad 上制作并直接上传到 Pi 的视
我正在尝试了解Web Audio API的引入对基于Web的游戏的开发意味着什么。 Flash游戏当然可以执行一些相当高级的音频处理,对于简单的游戏,音频元素也许就足够了。但是Web Audio AP
我已经在如何用简单的音频引擎循环播放声音效果方面进行了广泛的搜索,但是在cocos2d论坛上除了hello with looping sfx之外,它并没有取得太大进展,因为它存在多个问题。如何在Sim
我的任务是打开一个扩展名为 mka 的现有音频文件(Matroska 容器)并提取原始音频数据。 This示例仅显示了从 mp2 文件中提取原始数据的示例。我不知道如何使用 mka 容器执行此操作。我
我是Lync 2013 SDK的新手(现在已经使用了几周),并且能够弄清除此以外的大部分东西…… 当我加入 session 时(使用ConversationManager.JoinConference
我好奇。如何实现有史以来最简单的音频引擎?我有一些类似使用默认音频设备的音频数据流的想法。玩了很多 RtAudio,我认为如果可以放弃一些功能,这是可能的。有人知道从哪里开始吗? 最佳答案 我会这样做
我一直在玩网络音频API。 我正在使用getByteFrequencyData来显示频带的分贝数据,但是我想更改显示频带的整个范围,因为现在重要的音频都被压缩为一对频带。 有关如何执行此操作的任何想法
我想在音频 session 以NAudio开始和结束时接收回调。以下代码正在运行: private void SetupMediaSessionCallbacks() {
我可以用trackPosition,offset以某种方式记录并输出到WAV。当在浏览器中播放时,它工作正常,我只想输出到WAV文件。 for (var i = 0; i 0) {
在哪种情况下,我们可以不将Google Resonance Audio SDK与耳机配合使用,而应将其与真实的扬声器配合使用(例如,安装在360°的音圈设置中)? 还是所有算法都不适用于真实的扬声器输
AudioPannerNode是一个处理节点,用于在三维空间中定位/空间化传入的音频流。有没有一种方法可以将其用于常规LR平移,请记住它使用3D笛卡尔坐标系与侦听器结合使用,该侦听器的位置和方向与平移
我有一个带有两个源的音频对象,分别为M4A和OGG格式。 代码如下: 然后,我可以调用document.getElementById('audio1')。play()并开始播放。 它适用于所有
我正在尝试构建一个允许将时间/节奏(可能是音高)输入到 Web 音频振荡器节点的界面。实际上创建了一个“步进音序器”。 为 Web Audio API 振荡器节点触发预定 NoteOn 的最佳方式是什
是否可以使用 Core Audio 以亚毫秒级延迟播放声音? 我尝试过使用具有不同大小和缓冲区数量的 AudioQueues,也尝试过使用 AudioUnits,但我一直无法将延迟降低到 30 毫秒以
我是一名优秀的程序员,十分优秀!