- android - RelativeLayout 背景可绘制重叠内容
- android - 如何链接 cpufeatures lib 以获取 native android 库?
- java - OnItemClickListener 不起作用,但 OnLongItemClickListener 在自定义 ListView 中起作用
- java - Android 文件转字符串
我正在为使用 pjsip 库的 ios 制作一个应用程序,但我想使用 opus 作为编解码器。我一直无法找到任何来源来解释如何去做。谁能帮忙。
谁能告诉我编译 opus 编解码器的步骤,然后将其与 pjsip 一起使用。
此外,如果可能的话,有人可以提供 libopus.a 的链接,它是为 i386 架构编译的。我相信如果我能得到这个图书馆,它可能会奏效。
最佳答案
简短的回答是只用 csipsimple 复制已经做了。尽管 csipsimple 是基于 android 的,但 opus(或任何编解码器)集成将在您可以为其编译编解码器的任何平台上运行。对于 opus,您可以为几乎任何您喜欢的平台编译它。
OPUS 实际上提供了 pjsip 没有 API 的功能。所以目前集成还不能完全使用opus编解码器。即使使用这种非最佳集成,我发现 opus 在 pjsip 中工作得非常好。
关于ios - 如何将(opus)外部/第三方编解码器与 ios 的 pjsip 链接起来,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/16854944/
我正在导入 Telegram android应用进入android studio。 这个项目包含很多.C文件,所以我不得不用Android NDK转换这个C文件来生成lib文件夹,最后结束导入过程!
我正在开发使用 libavcodec 库的库。 我尝试使用 opus 编解码器对音频帧进行编码,但是在 avcodec_open2(...) 之后我得到了这个日志 [opus @ 0x2335f30]
在javascript网页上,我使用HTML5 Media API生成了一条音频消息,然后通过socketio将其发送到将文件保存在磁盘上的nodejs服务器。一切正常。 Javascript块,客户
我正在使用这些代码行。 val uri = getUriForFile(this, BuildConfig.APPLICATION_ID+ ".provider" , file!!)
在仍在学习 Go 的过程中,我正在尝试正确读取 Opus 文件并将其发送到 Discord 的语音 channel 。 (仅支持 Opus 编解码器)。最初使用 this我能够传递一个 WAV,该脚本
函数 opus_encode 需要帧大小作为参数。在 api 文档中,它说缓冲区大小是每个 channel 的样本数。但是如何确定我应该使用哪种尺寸呢? 我在 android 中使用 opus。采样率
我已经在 gitbash 中使用 pip 安装了适用于 python 3.4 的最新版本的 opus $ pip install --upgrade opuslib Requirement alrea
我正在寻找一种将 opus-codec(解码器部分)与我的 Android 应用程序集成的方法。 你知道有任何实现这样做吗?我们目前正在使用 ogg-vorbis 进行语音提示,考虑使用 speex(
我对为 .opus 文件编写元数据很感兴趣,但到目前为止我看到的所有帖子都是针对更主流的格式,例如 .ogg 或 .mp3。我不确定 ID3 标签是否适用于 .opus 文件,而且我找不到任何资源说明
我正在尝试将 opus 集成到我的应用程序中,编码和解码函数返回正值,这意味着成功,但输出音频无法播放。原始音频数据也可以播放。这是我对数据进行编码的方式。我使用 4 字节前缀来分隔每个数据包。 se
我正在捕获一个语音聊天程序的音频流(它是专有的、闭源的,我无法控制它),它是用 OPUS Codec 编码的,我想将其解码为原始 PCM 音频 ( Opus Decoder doc )。 我正在做的是
我目前正在编写一个小脚本,可以将 MP4 动态转换为 Opus 音频并将其发送到 Discord在戈朗。最初我的脚本会在通过 stdin 下载到 ffmpeg 时传递 MP4,然后将 stdout 传
我正在尝试将 Opus 文件解码回原始 48 kHz。但是我找不到任何示例代码来做到这一点。 我当前的代码是这样的: void COpusCodec::Decode(unsigned char* en
就像我想添加/更改元数据到 ogg(opus) 的标题一个文件夹中的文件(一张专辑/一位艺术家)。当我从 wav/flac 编码时至opus我通常用 for f in *.*; do ffmpeg -
我正在尝试将 OGG_OPUS 编码流发送到谷歌的语音到文本流服务。 由于 Google 对其流请求施加了时间限制,因此我必须以固定的时间间隔将音频流路由到另一个 Google Speech To T
我已经用谷歌搜索过这个问题,但没有得到明确的答案。 据我了解,FLV 容器格式目前支持以下音频格式 MP3、ADPCM、线性 PCM、Nellymoser、Speex、AAC、G.711(保留供内部使
我正在使用 WebRTC 从网页录制输入麦克风并通过 SoX 进行处理。 问题是,Firefox 录音采用 Opus Audio 格式(根据 VLC 媒体信息),位于 Ogg 容器中,而 SoX 不喜
我正在开发一个 webRTC Web 应用程序,到目前为止效果非常好。例如,我还没有弄清楚如何告诉 Opus 编解码器(强制)使用“全频段”。 将编解码器设置为 510 kHz 比特率很简单: des
我正在使用C语言在Linux环境下开发一个webrtc模拟器。在这里,我需要将媒体从一个 webrtc 模拟器发送到另一个 webrtc 模拟器。我需要使用 VP8 和 Opus 编解码器。现在我开始
是否可以配置 PJSIP (PJSUA2)使用OPUS编解码器? 最佳答案 我终于找到了一个方法(ubuntu 14.04,要求 PJSIP >= 2.5): 使用以下命令从源代码安装 opus@1.
我是一名优秀的程序员,十分优秀!