- r - 以节省内存的方式增长 data.frame
- ruby-on-rails - ruby/ruby on rails 内存泄漏检测
- android - 无法解析导入android.support.v7.app
- UNIX 域套接字与共享内存(映射文件)
我很高兴看到 iOS 6 支持 Web Audio API,因为我们制作 HTML5 游戏。但是,我无法让 iOS 6 使用 Web Audio API 播放任何声音,示例在桌面 Chrome 中运行良好。
这是一个 HTML5 游戏,带有触摸控件并通过 Web Audio API 播放音频(如果存在 - 如果不存在,它将回退到 HTML5 音频):
http://www.scirra.com/labs/sbios6b/
编辑:@Srikumar 建议了一些解决方法。我在下面的版本中应用了它们。还是不行!
http://www.scirra.com/labs/sbios6f/
在桌面版 Chrome 上一切正常,但 iOS 6 完全没有声音。我在调试它时遇到了麻烦,因为我只进行 Windows 开发,而 iOS 6 将 Debug模式替换为远程 Web 检查器,这显然在 Windows 的 Safari 上不可用。使用一些警报,我确实发现它正确识别了 Web Audio API,使用它,检测到不支持 Vorbis,因此回退到 AAC 音频,解码缓冲区然后播放它,没有抛出任何错误,但我什么也没听到。当然,我尝试将音量调到最大 :)
应该不是编解码器问题,因为 iOS 6 可以很好地播放 AAC - 你可以浏览到 one of the .m4a's the game plays直接从 Safari 访问时播放效果很好。
查看 iOS 6 上的网络音频 API 示例:http://chromium.googlecode.com/svn/trunk/samples/audio/samples.html - 其中一些有效,而另一些则无效。例如,Chrome Audio Visualizer有效,但是 Javascript Drone没有。
iOS 6 上的 Web Audio 和桌面版 Chrome 之间肯定存在一些微妙的不兼容性。我错过了什么?
最佳答案
编辑(2015 年 11 月):iOS 9 不再允许音频在 touchstart
事件中启动,这打破了下面的解决方案。但是它在 touchend
事件中起作用。 iOS 6 的原始答案在下面完整保留,但对于 iOS 9 支持,请确保使用 touchend
。
好吧,很抱歉回答我自己的赏金问题,但经过几个小时的调试我终于找到了答案。 iOS 6 上的 Safari 在 Web Audio API 静音的情况下有效启动。它不会取消静音直到您尝试在用户输入事件中播放声音(创建缓冲区源、将其连接到目标并调用noteOn()
)。在此之后,它取消静音并且音频播放不受限制并且应该如此。这是 Web Audio API 如何在 iOS 6 上工作的一个未记录的方面(Apple's doc is here,希望他们能尽快更新它!)
用户可以经常触摸屏幕,参与游戏。但它将保持静音。您必须在用户输入事件中播放,例如touchstart
[edit: touchend
for iOS 9+],播放一次,然后所有音频取消静音。之后您可以随时播放音频(不必在用户输入事件中)。
请注意,这与 HTML5 音频的限制不同:通常您只能在用户输入事件中启动音频,并且一次只能播放一种声音; Web Audio API 在用户输入第一次播放后完全取消静音,这样你就可以随时播放声音,然后你可以将它们进行复音混合,处理很酷的效果等。
这意味着许多已经在网络上使用 Web Audio API 的游戏永远不会播放音频,因为它们不会碰巧在触摸事件中发出 noteOn。您必须调整它以等待第一个用户输入事件。
有几种方法可以解决这个问题:在用户触摸屏幕之前不要播放标题音乐;有一个初始的“触摸启用音频”屏幕并播放声音然后在他们触摸时开始游戏;等等。希望这能帮助遇到同样问题的其他人节省一些调试时间!
关于javascript - iOS 6 Web Audio API 上没有声音,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/12517000/
我有一个小型WordPress网站。我做了很多音频工作,并且试图在WordPress的博客条目中发布HTML5音频剪辑。由于某种原因,它不起作用。它可能与我在WordPress网站上使用的样式有关,但
我在让 html5 标签与 Web Audio API .createMediaElementSource() 方法配合使用时遇到问题。请参阅下面的 jsFiddle/代码。任何想法这里出了什么问题将
我尝试安装ffmpeg $ brew install ffmpeg 并运行 ffmpeg $ ffmpeg -i audio.m4a -ar 8000 -ab 12.2k audio.amr 我收到以
我已使用Web Audio API中的getByteFrequencyData方法使用了来自Analyzer节点的FFT数据来创建频谱可视化器,如下所示: 在这种情况下,我有256个数据箱。这个数字到
Google VR刚刚为wwise制作了一个VR插件: https://developers.google.com/vr/audio/wwise-getting-started https://git
如何将新记录追加到现有记录中的选定位置或特定位置? 例如,有一个5秒的录制,我想再次录制,但是将此录制追加到先前录制的特定位置,说出来:在3秒钟的录制长度之后追加此录制。 最佳答案 您可以使用getC
我们基于 Raspberry Pi 和 omxplayer 构建简单的网络控制视频播放器。我们遇到的问题是任何使用 ffmpeg 转码的文件都有音频不同步。在 iPad 上制作并直接上传到 Pi 的视
我正在尝试了解Web Audio API的引入对基于Web的游戏的开发意味着什么。 Flash游戏当然可以执行一些相当高级的音频处理,对于简单的游戏,音频元素也许就足够了。但是Web Audio AP
我已经在如何用简单的音频引擎循环播放声音效果方面进行了广泛的搜索,但是在cocos2d论坛上除了hello with looping sfx之外,它并没有取得太大进展,因为它存在多个问题。如何在Sim
我的任务是打开一个扩展名为 mka 的现有音频文件(Matroska 容器)并提取原始音频数据。 This示例仅显示了从 mp2 文件中提取原始数据的示例。我不知道如何使用 mka 容器执行此操作。我
我是Lync 2013 SDK的新手(现在已经使用了几周),并且能够弄清除此以外的大部分东西…… 当我加入 session 时(使用ConversationManager.JoinConference
我好奇。如何实现有史以来最简单的音频引擎?我有一些类似使用默认音频设备的音频数据流的想法。玩了很多 RtAudio,我认为如果可以放弃一些功能,这是可能的。有人知道从哪里开始吗? 最佳答案 我会这样做
我一直在玩网络音频API。 我正在使用getByteFrequencyData来显示频带的分贝数据,但是我想更改显示频带的整个范围,因为现在重要的音频都被压缩为一对频带。 有关如何执行此操作的任何想法
我想在音频 session 以NAudio开始和结束时接收回调。以下代码正在运行: private void SetupMediaSessionCallbacks() {
我可以用trackPosition,offset以某种方式记录并输出到WAV。当在浏览器中播放时,它工作正常,我只想输出到WAV文件。 for (var i = 0; i 0) {
在哪种情况下,我们可以不将Google Resonance Audio SDK与耳机配合使用,而应将其与真实的扬声器配合使用(例如,安装在360°的音圈设置中)? 还是所有算法都不适用于真实的扬声器输
AudioPannerNode是一个处理节点,用于在三维空间中定位/空间化传入的音频流。有没有一种方法可以将其用于常规LR平移,请记住它使用3D笛卡尔坐标系与侦听器结合使用,该侦听器的位置和方向与平移
我有一个带有两个源的音频对象,分别为M4A和OGG格式。 代码如下: 然后,我可以调用document.getElementById('audio1')。play()并开始播放。 它适用于所有
我正在尝试构建一个允许将时间/节奏(可能是音高)输入到 Web 音频振荡器节点的界面。实际上创建了一个“步进音序器”。 为 Web Audio API 振荡器节点触发预定 NoteOn 的最佳方式是什
是否可以使用 Core Audio 以亚毫秒级延迟播放声音? 我尝试过使用具有不同大小和缓冲区数量的 AudioQueues,也尝试过使用 AudioUnits,但我一直无法将延迟降低到 30 毫秒以
我是一名优秀的程序员,十分优秀!