gpt4 book ai didi

python - 具有数百个削减的 ffmpeg 性能 (atrim)

转载 作者:行者123 更新时间:2023-12-04 22:46:52 26 4
gpt4 key购买 nike

我有音频文件(想想~2h),我想从中切出很多片段(500+)和一个像这样的ffmpeg命令:

['ffmpeg', '-i', 'pipe:', '-filter_complex', 
'[0]atrim=end=30.69:start=0.0[s0];
[0]atrim=end=34.31:start=31.18[s1];
[0]atrim=end=38.65:start=34.43[s2];
(... hundreds more)
[s37][s38][s39][s40][s41]concat=a=1:n=42:v=0[s42]', '-map', '[s42]']

使用 ffmpeg-python 构建的流映射:

  Stream #0:0 (mp3float) -> atrim
(... hundreds more)
Stream #0:0 (mp3float) -> atrim
concat -> Stream #0:0 (libmp3lame)

现在这按预期工作了,但是我在本地需要大约 10 分钟的时间来处理我拥有的文件,而当我将它部署到云中的某个服务器时,大约需要一个小时。显然这绝对取决于机器,我肯定会在那里扩展速度,但我也想知道是否有办法用 ffmpeg 本身加快处理速度。

谢谢指点!

最佳答案

为什么要将文件提供给 ffmpeg通过管道?如果您按路径提供输入,ffmpeg将能够在文件内搜索并快速跳过必须丢弃的片段,而对于管道输入,它别无选择,只能按顺序扫描整个输入。

此外,当使用文件输入时,您可以利用 concat demuxer使用流复制,显着节省解码和重新编码。

对于您的示例,concat 分离器的输入应如下所示(请注意,相同的文件名用于不同的片段):

cut.ffconcat

ffconcat version 1.0

file input.mp3
inpoint 0.0
outpoint 30.69

file input.mp3
inpoint 31.18
outpoint 34.31

...

ffmpeg命令行:

ffmpeg -i cut.ffconcat -codec copy cut.mp3

在我的实验中(从一个 42 分钟长的 mp3 文件中剪切出 250 个 5 秒片段)运行时差异超过 3 倍:concat demuxer + 流复制方法花费了 36 秒,而你的 atrim 花费了 110 秒。 + concat过滤解决方案。

但是请注意,使用 concat demuxer 方法时切割精度可能会更差(我怀疑它只会在音频帧边界处切割)。

关于python - 具有数百个削减的 ffmpeg 性能 (atrim),我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/67558608/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com