- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我编写了一个 MP4 解析器,它可以很好地读取 MP4 中的原子,并将它们拼接在一起 - 结果是 Quicktime 可以打开一个技术上有效的 MP4 文件,但它不能播放任何音频,因为我相信时序/采样信息全部关闭。我应该提到我只对音频感兴趣。
我正在做的是尝试从现有的 MP4 中获取 moov 原子/等,然后仅获取文件中 mdat 原子的一个子集来创建一个新的、更小的 MP4。在这样做时,我改变了 duration
在 mvhd
原子,以及 mdia
中的持续时间标题。没有tkhd
这个文件中的原子有编辑,所以我相信我不需要改变那里的持续时间 - 我错过了什么?
在创建新 MP4 时,我正确地分割了 mdat
用宽框块,并将“mdat”标题/大小保持在正确的位置 - 我确保使用新内容更新大小。
现在完全有 110% 的可能我遗漏了一些关于格式的重要信息,但如果可能的话,我很想得到最后的作品。有人有任何意见/想法吗?
代码可以在以下链接中找到:
https://gist.github.com/ryanmcgrath/958c602cff133bd7fa0b
最佳答案
我将在这里暗中暗中说你没有更新你的 stbl
适当抵消。至少我没有(乍一看)看到你的 python 在任何地方这样做。
科学技术委员会
让我们从数据的位置开始。数据包以块的形式写入文件,头部告诉解码器这些块的每个“块”存在的位置。 stsc
表表示每个块存在多少个项目。 first chunk
表示新块的开始位置。这有点令人困惑,但看看我的例子。这就是说每个块有 100 个样本,直到第 8 个块。在第 8 个块有 98 个样本。
STCO
也就是说,您还必须跟踪这些块的偏移量在哪里。这就是 stco
的工作 table 。因此,文件中的块偏移量 1 或块偏移量 2 等。
如果您修改了 mdat
中的任何数据你必须维护这些表。你不能只是砍mdat
数据输出,并期望解码器知道要做什么。
好像这还不够,现在您还必须维护样本时间表 ( stts
) 样本大小表 ( stsz
),如果这是视频,则同步样本表 ( stss
)。
STTSstts
表示样本应该以时间刻度为单位播放多长时间。如果您正在处理音频,时间刻度可能是 44100 或 48000 (kHz)。
如果您删除了一些数据,现在一切都可能不同步。如果这里的所有值都具有完全相同的持续时间,那么您就可以了。
上海证券交易所stsz
表示每个样本的大小(以字节为单位)。这对于解码器能够从一个块开始,然后按其大小遍历每个样本很重要。
同样,如果所有样本量都完全相同,您就可以了。音频往往几乎相同,但视频内容差异很大(关键帧和诸如此类)
统计局
最后但并非最不重要的是我们有 stss
说明哪些帧是关键帧的表格。我只有 AAC 的经验,但每个音频帧都被视为关键帧。在这种情况下,您可以有一个条目来描述所有数据包。
关于您的原始问题,每个玩家的时间显示并不总是以相同的方式兑现。最准确的方法是将 header 中所有帧的持续时间相加,并将其用作总时间。其他播放器使用轨道标题中的元数据。我发现最好保持所有值相同,然后玩家就会高兴。
如果您正在执行所有这些操作而我在脚本中遗漏了它,那么您可以发布一个示例 mp4 和一个独立的应用程序,我可以尝试帮助您。
关于audio - MP4 Atom 解析 - 在哪里配置时间...?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/18436551/
我有一个小型WordPress网站。我做了很多音频工作,并且试图在WordPress的博客条目中发布HTML5音频剪辑。由于某种原因,它不起作用。它可能与我在WordPress网站上使用的样式有关,但
我在让 html5 标签与 Web Audio API .createMediaElementSource() 方法配合使用时遇到问题。请参阅下面的 jsFiddle/代码。任何想法这里出了什么问题将
我尝试安装ffmpeg $ brew install ffmpeg 并运行 ffmpeg $ ffmpeg -i audio.m4a -ar 8000 -ab 12.2k audio.amr 我收到以
我已使用Web Audio API中的getByteFrequencyData方法使用了来自Analyzer节点的FFT数据来创建频谱可视化器,如下所示: 在这种情况下,我有256个数据箱。这个数字到
Google VR刚刚为wwise制作了一个VR插件: https://developers.google.com/vr/audio/wwise-getting-started https://git
如何将新记录追加到现有记录中的选定位置或特定位置? 例如,有一个5秒的录制,我想再次录制,但是将此录制追加到先前录制的特定位置,说出来:在3秒钟的录制长度之后追加此录制。 最佳答案 您可以使用getC
我们基于 Raspberry Pi 和 omxplayer 构建简单的网络控制视频播放器。我们遇到的问题是任何使用 ffmpeg 转码的文件都有音频不同步。在 iPad 上制作并直接上传到 Pi 的视
我正在尝试了解Web Audio API的引入对基于Web的游戏的开发意味着什么。 Flash游戏当然可以执行一些相当高级的音频处理,对于简单的游戏,音频元素也许就足够了。但是Web Audio AP
我已经在如何用简单的音频引擎循环播放声音效果方面进行了广泛的搜索,但是在cocos2d论坛上除了hello with looping sfx之外,它并没有取得太大进展,因为它存在多个问题。如何在Sim
我的任务是打开一个扩展名为 mka 的现有音频文件(Matroska 容器)并提取原始音频数据。 This示例仅显示了从 mp2 文件中提取原始数据的示例。我不知道如何使用 mka 容器执行此操作。我
我是Lync 2013 SDK的新手(现在已经使用了几周),并且能够弄清除此以外的大部分东西…… 当我加入 session 时(使用ConversationManager.JoinConference
我好奇。如何实现有史以来最简单的音频引擎?我有一些类似使用默认音频设备的音频数据流的想法。玩了很多 RtAudio,我认为如果可以放弃一些功能,这是可能的。有人知道从哪里开始吗? 最佳答案 我会这样做
我一直在玩网络音频API。 我正在使用getByteFrequencyData来显示频带的分贝数据,但是我想更改显示频带的整个范围,因为现在重要的音频都被压缩为一对频带。 有关如何执行此操作的任何想法
我想在音频 session 以NAudio开始和结束时接收回调。以下代码正在运行: private void SetupMediaSessionCallbacks() {
我可以用trackPosition,offset以某种方式记录并输出到WAV。当在浏览器中播放时,它工作正常,我只想输出到WAV文件。 for (var i = 0; i 0) {
在哪种情况下,我们可以不将Google Resonance Audio SDK与耳机配合使用,而应将其与真实的扬声器配合使用(例如,安装在360°的音圈设置中)? 还是所有算法都不适用于真实的扬声器输
AudioPannerNode是一个处理节点,用于在三维空间中定位/空间化传入的音频流。有没有一种方法可以将其用于常规LR平移,请记住它使用3D笛卡尔坐标系与侦听器结合使用,该侦听器的位置和方向与平移
我有一个带有两个源的音频对象,分别为M4A和OGG格式。 代码如下: 然后,我可以调用document.getElementById('audio1')。play()并开始播放。 它适用于所有
我正在尝试构建一个允许将时间/节奏(可能是音高)输入到 Web 音频振荡器节点的界面。实际上创建了一个“步进音序器”。 为 Web Audio API 振荡器节点触发预定 NoteOn 的最佳方式是什
是否可以使用 Core Audio 以亚毫秒级延迟播放声音? 我尝试过使用具有不同大小和缓冲区数量的 AudioQueues,也尝试过使用 AudioUnits,但我一直无法将延迟降低到 30 毫秒以
我是一名优秀的程序员,十分优秀!