- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我正在尝试为互联网广播电台构建一个网站和移动应用程序(iOS,Android)。
网站用户广播他们的音乐或广播,而移动用户将仅收听广播电台并与其他收听者聊天。
我搜索了一周,并使用Wowza引擎(使用HLS和RTMP)和Amazon EC2上的SHOUTcast服务器制作了原型(prototype)。
使用HLS的延迟为5秒,但是RTMP和SHOUTcast的延迟为2秒。
有了这个结果,我认为我应该选择RTMP或SHOUTcast。
但是我不确定RTMP和SHOUTcast是最好的协议(protocol)。 :(
我应该选择哪种协议(protocol)?
我需要提供各种协议(protocol)来覆盖所有平台吗?
最佳答案
这是一个非常广泛的问题。让我们从分发协议(protocol)开始。
流协议(protocol)
HLS的优点是允许用户以最适合其连接的比特率获得流。客户端可以无缝地放大/缩小,而无需停止播放。这对于视频尤其重要,但对于音频,即使是移动客户端,也能够在大多数区域播放128kbit流。如果您打算提供各种比特率并想要更改流媒体的质量,那么HLS是适合您的好协议(protocol)。
HLS的缺点是兼容性。 iOS支持它,仅此而已。 Android支持HLS,但仍然存在问题。 (也许再过一两年,一旦所有的Android 3.0都消失了,这将不再是一个大问题。)JWPlayer拥有一些使台式机用户在Flash中使用HLS的技巧。
除非您只关心Flash用户,否则我不会理会RTMP。
我几乎总是选择使用HTTP进行纯渐进式流传输。一切都可以玩。 (甚至是12年前我的Palm Pilot的默认媒体播放器。)它很容易实现且易于理解。
SHOUTcast实际上是HTTP,但实现不佳的版本存在兼容性问题,尤其是在移动设备上。它的响应中有一条非标准状态行,打断了很多客户。 Icecast是一个很好的选择,这是我今天建议用于生产的建议。作为另一个选择,我创建了自己的流媒体服务AudioPump,它也是HTTP,并且是专门为修复与奇怪的移动客户端(例如旧硬件上的 native Android播放器)的兼容性而构建的。目前尚不可用,但是如果您想尝试的话,可以通过brad@audiopump.co与我联系。
潜伏
您提到2秒的延迟是可取的。如果SHOUTcast的延迟时间为2秒,则说明出现了问题。您不想希望延迟这么低,尤其是当您正在流式传输到移动客户端时。我通常至少从20秒的缓冲区开始,然后尽快将缓冲区刷新到客户端。这样就可以立即开始流播放(因为它填满了客户端缓冲区,因此可以开始解码),同时提供了一些针对由于网络状况而导致的缓冲区不足的保护。移动用户在建筑物的拐角处走动并失去良好的信号质量并不少见。您希望流尽可能地幸免于难,因此,如果您已经发送了数据以弥补丢失,则用户不必知道或担心他们的连接在短时间内变得平庸。
如果您确实需要低延迟,那么您就在寻找完全错误的技术。对于低延迟,请查看WebRTC。
当然,您可以调整传统的互联网广播设置以减少延迟,但这很少是个好主意。
编解码器
编解码器的选择决定了您的兼容性比什么都重要。 MP3最容易兼容,而AAC紧随其后。如果使用AAC,则在给定的比特率下可以获得更好的音频质量。大多数人使用它来减少带宽费用。
MP3需要支付许可费,而AAC可能需要支付许可费,具体取决于您使用的编解码器。请咨询律师。我不是一个人,并且许可非常复杂的。
其他编解码器包括Vorbis和Opus。如果可以使用Opus,则可以这样做,因为许可是完全开放的,并且可以获得良好的带宽质量。客户端兼容性虽然是Opus的杀手er。 (也许几年后会更好。)Vorbis是一个中等性能的编解码器,但是它是免费且清晰的。
在极端情况下,我有一些电视台在FLAC中进行流式传输。这是无损的音频质量,但是您要为中等质量的MP3电台支付8倍的带宽。基于HTTP流的FLAC兼容性目前尚无代码,但在VLC中可以正常使用。
为您的流支持多个编解码器是很常见的。根据您的预算,如果无法执行此操作,则最好使用MP3。
最后,在编码方面,如果可以帮助,请不要从有损编解码器转到其他有损编解码器。尝试使输出流尽可能接近输入。如果重新编码音频,则每次都会失去质量。
从浏览器记录
您提到了从浏览器流式传输的用户。几年前,我使用Web Audio API构建了类似的东西,其中捕获了音频,然后将其编码并发送到Icecast/SHOUTcast服务器。在这里查看:http://demo.audiopump.co:3000/在这里对其工作方式进行简要说明:https://stackoverflow.com/a/20850467/362536
无论如何,我希望这可以帮助您入门。
关于audio - 移动和Web的实时音频(广播)流传输的最佳协议(protocol)是什么?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/30184520/
我有一个小型WordPress网站。我做了很多音频工作,并且试图在WordPress的博客条目中发布HTML5音频剪辑。由于某种原因,它不起作用。它可能与我在WordPress网站上使用的样式有关,但
我在让 html5 标签与 Web Audio API .createMediaElementSource() 方法配合使用时遇到问题。请参阅下面的 jsFiddle/代码。任何想法这里出了什么问题将
我尝试安装ffmpeg $ brew install ffmpeg 并运行 ffmpeg $ ffmpeg -i audio.m4a -ar 8000 -ab 12.2k audio.amr 我收到以
我已使用Web Audio API中的getByteFrequencyData方法使用了来自Analyzer节点的FFT数据来创建频谱可视化器,如下所示: 在这种情况下,我有256个数据箱。这个数字到
Google VR刚刚为wwise制作了一个VR插件: https://developers.google.com/vr/audio/wwise-getting-started https://git
如何将新记录追加到现有记录中的选定位置或特定位置? 例如,有一个5秒的录制,我想再次录制,但是将此录制追加到先前录制的特定位置,说出来:在3秒钟的录制长度之后追加此录制。 最佳答案 您可以使用getC
我们基于 Raspberry Pi 和 omxplayer 构建简单的网络控制视频播放器。我们遇到的问题是任何使用 ffmpeg 转码的文件都有音频不同步。在 iPad 上制作并直接上传到 Pi 的视
我正在尝试了解Web Audio API的引入对基于Web的游戏的开发意味着什么。 Flash游戏当然可以执行一些相当高级的音频处理,对于简单的游戏,音频元素也许就足够了。但是Web Audio AP
我已经在如何用简单的音频引擎循环播放声音效果方面进行了广泛的搜索,但是在cocos2d论坛上除了hello with looping sfx之外,它并没有取得太大进展,因为它存在多个问题。如何在Sim
我的任务是打开一个扩展名为 mka 的现有音频文件(Matroska 容器)并提取原始音频数据。 This示例仅显示了从 mp2 文件中提取原始数据的示例。我不知道如何使用 mka 容器执行此操作。我
我是Lync 2013 SDK的新手(现在已经使用了几周),并且能够弄清除此以外的大部分东西…… 当我加入 session 时(使用ConversationManager.JoinConference
我好奇。如何实现有史以来最简单的音频引擎?我有一些类似使用默认音频设备的音频数据流的想法。玩了很多 RtAudio,我认为如果可以放弃一些功能,这是可能的。有人知道从哪里开始吗? 最佳答案 我会这样做
我一直在玩网络音频API。 我正在使用getByteFrequencyData来显示频带的分贝数据,但是我想更改显示频带的整个范围,因为现在重要的音频都被压缩为一对频带。 有关如何执行此操作的任何想法
我想在音频 session 以NAudio开始和结束时接收回调。以下代码正在运行: private void SetupMediaSessionCallbacks() {
我可以用trackPosition,offset以某种方式记录并输出到WAV。当在浏览器中播放时,它工作正常,我只想输出到WAV文件。 for (var i = 0; i 0) {
在哪种情况下,我们可以不将Google Resonance Audio SDK与耳机配合使用,而应将其与真实的扬声器配合使用(例如,安装在360°的音圈设置中)? 还是所有算法都不适用于真实的扬声器输
AudioPannerNode是一个处理节点,用于在三维空间中定位/空间化传入的音频流。有没有一种方法可以将其用于常规LR平移,请记住它使用3D笛卡尔坐标系与侦听器结合使用,该侦听器的位置和方向与平移
我有一个带有两个源的音频对象,分别为M4A和OGG格式。 代码如下: 然后,我可以调用document.getElementById('audio1')。play()并开始播放。 它适用于所有
我正在尝试构建一个允许将时间/节奏(可能是音高)输入到 Web 音频振荡器节点的界面。实际上创建了一个“步进音序器”。 为 Web Audio API 振荡器节点触发预定 NoteOn 的最佳方式是什
是否可以使用 Core Audio 以亚毫秒级延迟播放声音? 我尝试过使用具有不同大小和缓冲区数量的 AudioQueues,也尝试过使用 AudioUnits,但我一直无法将延迟降低到 30 毫秒以
我是一名优秀的程序员,十分优秀!