- iOS/Objective-C 元类和类别
- objective-c - -1001 错误,当 NSURLSession 通过 httpproxy 和/etc/hosts
- java - 使用网络类获取 url 地址
- ios - 推送通知中不播放声音
在我的 Android 应用程序中使用 FFMpeg 库,我尝试了解如何在音频文件中非常精确的位置进行搜索。
例如,我想将文件中的当前位置设置为 #1234567 帧(在以 44100 Hz 编码的文件中),这相当于在 27994.717 毫秒处寻找。
为此,我尝试了以下方法:
// this:
av_seek_frame(formatContext, -1, 27994717, 0);
// or this:
av_seek_frame(formatContext, -1, 27994717, AVSEEK_FLAG_ANY);
// or even this:
avformat_seek_file(formatContext, -1, 27994617, 27994717, 27994817, 0);
使用以微秒为单位的位置给了我迄今为止最好的结果。
但由于某种原因,定位并不完全准确:当我从音频文件中提取样本时,它并没有准确地从预期位置开始。有大约 30-40 毫秒的轻微延迟(即使我寻找位置 0,令人惊讶的是......)。
我使用函数的方式是否正确,甚至是正确的函数?
编辑
以下是我如何获得该职位:
AVPacket packet;
AVStream *stream = NULL;
AVFormatContext *formatContext = NULL;
AVCodec *dec = NULL;
// initialization:
avformat_open_input(&formatContext, filename, NULL, NULL);
avformat_find_stream_info(formatContext, NULL);
int audio_stream_index = av_find_best_stream(formatContext, AVMEDIA_TYPE_AUDIO, -1, -1, &dec, 0);
stream = formatContext->streams[audio_stream_index];
...
// later, when I extract samples, here is how I get my position, in microseconds:
av_read_frame(formatContext, &packet);
long position = (long) (1000000 * (packet.pts * ((float) stream->time_base.num / stream->time_base.den)));
感谢那段代码,我可以获得当前帧的开始位置(帧 = 样本 block ,大小取决于音频格式 - mp3 为 1152 个样本,ogg 为 128 到 1152,.. .)
问题是:我在 position
中得到的值不准确:实际上大约晚了 30 毫秒。比如说1000000,实际持仓大概是1030000...
我做错了什么?它是 FFMpeg 中的错误吗?
感谢您的帮助。
最佳答案
晚了,但希望对某人有所帮助。这个想法是在搜索时保存时间戳,然后将 AVPacket->pts 与这个值进行比较(你可以用 AVStream->dts 来做,但它并没有给出好的结果结果在我的实验中)。如果 pts 仍然低于我们的目标时间戳,则使用 AVPacket->side_data 的 AV_PKT_DATA_SKIP_SAMPLES 能力跳过帧。
求方法代码:
void audio_decoder::seek(float seconds) {
auto stream = m_format_ctx->streams[m_packet->stream_index];
// convert seconds provided by the user to a timestamp in a correct base,
// then save it for later.
m_target_ts = av_rescale_q(seconds * AV_TIME_BASE, AV_TIME_BASE_Q, stream->time_base);
avcodec_flush_buffers(m_codec_ctx.get());
// Here we seek within given stream index and the correct timestamp
// for that stream. Using AVSEEK_FLAG_BACKWARD to make sure we're
// always *before* requested timestamp.
if(int err = av_seek_frame(m_format_ctx.get(), m_packet->stream_index, m_target_ts, AVSEEK_FLAG_BACKWARD)) {
error("audio_decoder: Error while seeking ({})", av_err_str(err));
}
}
以及解码方法的代码:
void audio_decoder::decode() {
<...>
while(is_decoding) {
// Read data as usual.
av_read_frame(m_format_ctx.get(), m_packet.get());
// Here is the juicy part. We were seeking, but the seek
// wasn't precise enough so we need to drop some frames.
if(m_packet->pts > 0 && m_target_ts > 0 && m_packet->pts < m_target_ts) {
auto stream = m_format_ctx->streams[m_packet->stream_index];
// Conversion from delta timestamp to frames.
auto time_delta = static_cast<float>(m_target_ts - m_packet->pts) / stream->time_base.den;
int64_t skip_frames = time_delta * m_codec_ctx->time_base.den / m_codec_ctx->time_base.num;
// Next step: we need to provide side data to our packet,
// and it will tell the codec to drop frames.
uint8_t *data = av_packet_get_side_data(m_packet.get(), AV_PKT_DATA_SKIP_SAMPLES, nullptr);
if(!data) {
data = av_packet_new_side_data(m_packet.get(), AV_PKT_DATA_SKIP_SAMPLES, 10);
}
// Define parameters of side data. You can check them here:
// https://ffmpeg.org/doxygen/trunk/group__lavc__packet.html#ga9a80bfcacc586b483a973272800edb97
*reinterpret_cast<uint32_t*>(data) = skip_frames;
data[8] = 0;
}
// Send packet as usual.
avcodec_send_packet(m_codec_ctx.get(), m_packet.get());
// Proceed to the receiving frames as usual, nothing to change there.
}
<...>
}
如果没有上下文不清楚,你可以在我的项目中查看相同的代码audio_decoder.cpp .
关于android - FFMpeg 库 : how to precisely seek in an audio file,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/53015621/
Java 库和 android 库有什么区别,各自有什么优点/缺点? 最佳答案 您可以在 Android 应用程序中包含标准 Java .jar 文件库。它们在 .apk 构建时被翻译成 Dalvik
所以,我现在的代码就像从 Java 层加载库(比如 liba.so),并在内部 liba.so 加载 libb.so。因此,如果我必须将所有库打包到 APK 中并将其安装在没有 root 访问权限的设
我想在我的系统中设置 LEDA 库。 我已经从以下链接下载了 LEDA 库 http://www.algorithmic-solutions.info/free/d5.php Instruct
我想用 autoconf 创建一个共享库。但是,我希望共享库具有“.so”扩展名,而不是以“lib”开头。基本上,我想制作一个加载 dlopen 的插件。 .是否有捷径可寻? 当我尝试使用 autoc
我需要在 Apps 脚本应用程序上修改 PDF。为此,我想使用 JS 库:PDF-LIB 我的代码: eval(UrlFetchApp.fetch("https://unpkg.com/pdf-lib
我正在构建一个使用以下 Boost header 的程序(我使用的是 Microsoft Visual C++ 10), #include #include #include #include
当我通过 cygwin 在 hadoop 上运行此命令时: $bin/hadoop jar hadoop-examples-*.jar grep input output 'dfs[a-z.]+' 我
我已经通过 vcpgk 成功安装了一个 C++ 库,名为:lmdb:x64-windows 我还安装了lmdb通过 Cabal 安装的 Haskell 绑定(bind)包 在尝试测试 lmdb 包时:
我该如何解决这个问题? 我刚刚将 javacv jar 文件复制到我的项目 Lib 文件夹下,但出现了这个错误! 我可以找到这个thread来自谷歌,但不幸的是,由于我国的谷歌限制政策,该页面无法打开
我有一个 Android 库项目 FooLib。 FooLib 引用 Android Context 之类的东西,但不需要任何资源文件(res/ 中的东西)所以我目前将其打包为供我的应用使用的 JAR
我正在开发一个 Android 应用程序(使用 Android Studio),它能够通过手势识别算法了解您正在进行的 Activity 。对于我使用 nickgillian ithub 帐户上可用的
关于从 .NET Framework 项目中引用 .NET Standard 类库的问题有很多类似的问题,其中 netstandard 库中的 NuGet 包依赖项不会流向 netframework
我已经从互联网上下载了 jna-4.2.2.jar,现在想将这个 jar 导入到我的项目中。但是当我试图将这个 jar 导入我的项目时,出现以下错误。 [2016-06-20 09:35:01 - F
我正在尝试通过编译在 Mac 上安装 rsync 3.2.3。但是,我想安装所有功能。为此,它需要一些库,此处 ( https://download.samba.org/pub/rsync/INSTA
进入 Web 开发有点困难。过去 5 年我一直致力于 winforms 工作。所以我正在努力从一种切换到另一种。前段时间,我使用过 JavaScript,但现在还没有大量的 JavaScript 库
很难说出这里要问什么。这个问题模棱两可、含糊不清、不完整、过于宽泛或夸夸其谈,无法以目前的形式得到合理的回答。如需帮助澄清此问题以便重新打开,visit the help center . 关闭 1
我正在寻找一个用Python编写的与logstash(ruby + java)类似的工具/库。 我的目标是: 从 syslog 中解析所有系统日志 解析应用程序特定日志(apache、django、m
就目前情况而言,这个问题不太适合我们的问答形式。我们希望答案得到事实、引用资料或专业知识的支持,但这个问题可能会引发辩论、争论、民意调查或扩展讨论。如果您觉得这个问题可以改进并可能重新开放,visit
我花了几天时间试图寻找用于 JavaPOS 实现的 .jar 库,但我找不到任何可以工作的东西。我找到了很多像这样的文档:http://jpos.1045706.n5.nabble.com/file/
这个问题在这里已经有了答案: Merge multiple .so shared libraries (2 个答案) 关闭 9 年前。 我有我在代码中使用的第三方库的源代码和对象。该库附带有关如何使
我是一名优秀的程序员,十分优秀!