- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我目前在 rtp://127.0.0.1:5006 本地播放的 OPUS 编解码器中有一个 RTP 协议(protocol)流
我想将此流转换为带有 AAC 编解码器(或其他更容易)的 HLS 协议(protocol),以便仅使用浏览器的设备更容易访问它。
我知道 ffmpeg 和 gstreamer 能够做到这一点,但我只是迷失在各种参数/参数中。
目前,我有一个描述我的流的 SDP 文件(不确定这是否正确,我只是在谷歌搜索/阅读规范后编写的)
v=0
t=0 0
m=audio 5006 RTP/AVP 98
c=IN IP4 127.0.0.1
a=recvonly
a=rtpmap:98 opus/48000/2
a=fmtp:98 stereo=0; sprop-stereo=0; useinbandfec=1c
有任何想法吗?
最佳答案
通过使用以下命令,我能够使它工作。 SDP 文件似乎也可以正常工作。
ffmpeg -protocol_whitelist file,udp,rtp -i input.sdp -c:a aac -b:a 128k -ac 2 -f hls -hls_time 4 -hls_playlist_type event outputstream.m3u8
如果其他人像我一样在理解这些论点时遇到问题,请花时间在
https://ffmpeg.org/ffmpeg.html 中搜索论点。并理解他们。那时一切都变得更加简单。
关于ffmpeg - 使用 ffmpeg 或 gstreamer 将 RTP (OPUS) 流转换为 HLS (AAC) 流,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/65453630/
我正在导入 Telegram android应用进入android studio。 这个项目包含很多.C文件,所以我不得不用Android NDK转换这个C文件来生成lib文件夹,最后结束导入过程!
我正在开发使用 libavcodec 库的库。 我尝试使用 opus 编解码器对音频帧进行编码,但是在 avcodec_open2(...) 之后我得到了这个日志 [opus @ 0x2335f30]
在javascript网页上,我使用HTML5 Media API生成了一条音频消息,然后通过socketio将其发送到将文件保存在磁盘上的nodejs服务器。一切正常。 Javascript块,客户
我正在使用这些代码行。 val uri = getUriForFile(this, BuildConfig.APPLICATION_ID+ ".provider" , file!!)
在仍在学习 Go 的过程中,我正在尝试正确读取 Opus 文件并将其发送到 Discord 的语音 channel 。 (仅支持 Opus 编解码器)。最初使用 this我能够传递一个 WAV,该脚本
函数 opus_encode 需要帧大小作为参数。在 api 文档中,它说缓冲区大小是每个 channel 的样本数。但是如何确定我应该使用哪种尺寸呢? 我在 android 中使用 opus。采样率
我已经在 gitbash 中使用 pip 安装了适用于 python 3.4 的最新版本的 opus $ pip install --upgrade opuslib Requirement alrea
我正在寻找一种将 opus-codec(解码器部分)与我的 Android 应用程序集成的方法。 你知道有任何实现这样做吗?我们目前正在使用 ogg-vorbis 进行语音提示,考虑使用 speex(
我对为 .opus 文件编写元数据很感兴趣,但到目前为止我看到的所有帖子都是针对更主流的格式,例如 .ogg 或 .mp3。我不确定 ID3 标签是否适用于 .opus 文件,而且我找不到任何资源说明
我正在尝试将 opus 集成到我的应用程序中,编码和解码函数返回正值,这意味着成功,但输出音频无法播放。原始音频数据也可以播放。这是我对数据进行编码的方式。我使用 4 字节前缀来分隔每个数据包。 se
我正在捕获一个语音聊天程序的音频流(它是专有的、闭源的,我无法控制它),它是用 OPUS Codec 编码的,我想将其解码为原始 PCM 音频 ( Opus Decoder doc )。 我正在做的是
我目前正在编写一个小脚本,可以将 MP4 动态转换为 Opus 音频并将其发送到 Discord在戈朗。最初我的脚本会在通过 stdin 下载到 ffmpeg 时传递 MP4,然后将 stdout 传
我正在尝试将 Opus 文件解码回原始 48 kHz。但是我找不到任何示例代码来做到这一点。 我当前的代码是这样的: void COpusCodec::Decode(unsigned char* en
就像我想添加/更改元数据到 ogg(opus) 的标题一个文件夹中的文件(一张专辑/一位艺术家)。当我从 wav/flac 编码时至opus我通常用 for f in *.*; do ffmpeg -
我正在尝试将 OGG_OPUS 编码流发送到谷歌的语音到文本流服务。 由于 Google 对其流请求施加了时间限制,因此我必须以固定的时间间隔将音频流路由到另一个 Google Speech To T
我已经用谷歌搜索过这个问题,但没有得到明确的答案。 据我了解,FLV 容器格式目前支持以下音频格式 MP3、ADPCM、线性 PCM、Nellymoser、Speex、AAC、G.711(保留供内部使
我正在使用 WebRTC 从网页录制输入麦克风并通过 SoX 进行处理。 问题是,Firefox 录音采用 Opus Audio 格式(根据 VLC 媒体信息),位于 Ogg 容器中,而 SoX 不喜
我正在开发一个 webRTC Web 应用程序,到目前为止效果非常好。例如,我还没有弄清楚如何告诉 Opus 编解码器(强制)使用“全频段”。 将编解码器设置为 510 kHz 比特率很简单: des
我正在使用C语言在Linux环境下开发一个webrtc模拟器。在这里,我需要将媒体从一个 webrtc 模拟器发送到另一个 webrtc 模拟器。我需要使用 VP8 和 Opus 编解码器。现在我开始
是否可以配置 PJSIP (PJSUA2)使用OPUS编解码器? 最佳答案 我终于找到了一个方法(ubuntu 14.04,要求 PJSIP >= 2.5): 使用以下命令从源代码安装 opus@1.
我是一名优秀的程序员,十分优秀!