- android - RelativeLayout 背景可绘制重叠内容
- android - 如何链接 cpufeatures lib 以获取 native android 库?
- java - OnItemClickListener 不起作用,但 OnLongItemClickListener 在自定义 ListView 中起作用
- java - Android 文件转字符串
我有一个来自 IP 摄像机的原始 H.264 流,它被打包在 RTP 帧中。我想将原始 H.264 数据放入一个文件中,以便我可以使用 ffmpeg
对其进行转换。
因此,当我想将数据写入原始 H.264 文件时,我发现它必须如下所示:
00 00 01 [SPS]
00 00 01 [PPS]
00 00 01 [NALByte]
[PAYLOAD RTP Frame 1] // Payload always without the first 2 Bytes -> NAL
[PAYLOAD RTP Frame 2]
[... until PAYLOAD Frame with Mark Bit received] // From here its a new Video Frame
00 00 01 [NAL BYTE]
[PAYLOAD RTP Frame 1]
....
因此,我从前面的 RTSP
通信中获取了来自 Session Description Protocol
的 SPS
和 PPS
.此外,在开始视频流本身之前,相机会在两条单独的消息中发送 SPS
和 PPS
。
因此我按以下顺序捕获消息:
1. Preceding RTSP Communication here ( including SDP with SPS and PPS )
2. RTP Frame with Payload: 67 42 80 28 DA 01 40 16 C4 // This is the SPS
3. RTP Frame with Payload: 68 CE 3C 80 // This is the PPS
4. RTP Frame with Payload: ... // Video Data
然后出现了一些带有有效负载的帧,在某个时候出现了一个带有 Marker Bit = 1
的 RTP 帧。这意味着(如果我做对了)我有一个完整的视频帧。在此之后,我再次从有效负载中写入前缀序列 (00 00 01
) 和 NAL
,然后继续执行相同的过程。
现在我的相机在每 8 个完整的视频帧后再次向我发送 SPS
和 PPS
。 (同样在两个 RTP 帧中,如上例所示)。我知道尤其是 PPS
可以在流媒体之间改变,但这不是问题。
我现在的问题是:
<强>1。我是否需要每 8 个视频帧编写一次 SPS/PPS?
如果我的 SPS
和我的 PPS
没有改变,那么将它们写在我的文件的开头就足够了,仅此而已?
<强>2。如何区分SPS/PPS和普通RTP帧?
在我解析传输数据的 C++ 代码中,我需要区分具有正常有效载荷的 RTP 帧和携带 SPS/PPS
的 RTP 帧。我怎样才能区分它们?好吧,SPS/PPS
帧通常要小得多,但这不是可以依赖的保存调用。因为如果我忽略它们,我需要知道我可以丢弃哪些数据,或者如果我需要编写它们,我需要将 00 00 01
前缀放在它们前面。 ?还是每 8 个视频帧出现一次的固定规则?
最佳答案
我记得,nal_unit_type 是帧的第一个字节的低 5 位。
nal_unit_type = frame[0] & 0x1f;
关于c++ - H.264 over RTP - 识别 SPS 和 PPS 帧,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/9618369/
我得到了很多作为 .dat 到达的数据集带有用于转换为 SPSS 的语法文件的文件 ( .sps )。我是 R 用户,所以我需要转换 .dat文件变成 .sav R 可以读取。 过去,我使用 PSPP
大家好,我一直在试图找出如何从 SPS 最终单位计算宽度和高度。我有具有这些参数的 H264 视频 h264 (High), yuvj420p(pc), 1280x720 [SAR 1:1 DAR 1
我有一个提供 H264 编码帧的设备。那些我想使用 LIVE555 通过网络传输的。 问题:这些帧不包括 SPS 和 PPS NAL 单元。但是,我可以访问一个函数,该函数在设备对第一帧进行编码后为我
我有两个视频流单元能够流式传输实时视频输入: AXIS Q7424-R 视频编码器 EPIPHAN VGADVI 广播器 99460 - 我正在使用 gstreamer 在运行 Linux 的客户端终
我正在尝试初始化一个 FFMPEG H264 编解码器上下文,用 SPS 帧填充额外数据字段,如下所示: #include #include int main() { const ch
我正在使用 gstreamer 摄取不同类型的安全摄像头 RTSP 流。在大多数情况下,我使用与此类似的管道 gst-launch-1.0 rtspsrc location=rtsp:// proto
我编写了一个 RTP 服务器来接收通过命令 ffmpeg -i test.mp4 rtp rtp://ip:port(客户端)发送的 RTP 数据包,服务器可以获得最终类型 24(STAP-A)。 我
我使用新 API 将图像从相机推送到 videoToolBox 编码器并从编码器回调中获取编码的 CMSampleBufferRef 我需要这些 sps 和 pts 用于 CMVideoFormatD
我正在尝试使用 MediaCodec NDK 解码具有非默认比色法的视频。我将 SPS 和 PPS 分别提供给 csd-0 和 csd-1 缓冲区,但这些信息似乎不会影响解码视频的外观。 首先,我初始
谁能给我指点文档,帮助我获得 iPhone 的正确 SPS 和 PPS 值。 最佳答案 问题有点不清楚... Picture Parameter Set 描述在最新的ITU-T release 7.3
我正在尝试将一个大文件 (1 GB) 从代码上传到 SharePoint 2013 on prem。我关注了this tutorial ,我从 NuGet 下载包“Microsoft.SharePoi
我对图像进行编码以供视频捕获器使用,并通过 ffmpeg 将其编码为 h264 并发送到我的客户端 pc 。 我的客户端电脑解码并显示它。它可以很好地解码和显示。 但我将这些压缩图像保存在一个文件中。
我使用 ffmpeg 和 libx264 对我的视频进行编码,当我打印 AVPacket 数据时,我发现有些东西只存在于第一个 IDR 之前。有人可以告诉我那是什么,谢谢。 0 0 1 6 5 ff
对于我的硬件解码器,我需要了解有关视频编解码器(如 h264)的其他编解码器规范?如何使用 libav ffmpeg 提取低级编解码器信息? 我需要的数据:https://www.ffmpeg.org
我正在尝试在 h.264 中编码视频,当使用 Apples HTTP Live Streaming 工具拆分时,媒体文件分段器将通过媒体文件验证器我在拆分的 MPEG-TS 文件上遇到两个错误 WAR
我使用英特尔硬件 MFT 将 NV12 帧编码为 H264 流,并使用 Live555 通过 LAN 上的 RTP 流式传输编码帧,并在另一端设置 ffplay 来解码和显示相同的帧。该设置与软件编码
我有一个来自 IP 摄像机的原始 H.264 流,它被打包在 RTP 帧中。我想将原始 H.264 数据放入一个文件中,以便我可以使用 ffmpeg 对其进行转换。 因此,当我想将数据写入原始 H.2
我需要将输出表导出为 *.sps(SPSS 语法)格式。 我使用的代码 80% 的时间都有效: Sub Print_CM_to_sps() Dim FSO As Object Set FSO =
我有一个大的 CSV 文件,它附带两个元数据描述文件。一个扩展名为 .sas,另一个扩展名为 .sps。打开它们,它们描述了 CSV 数据格式和类别。这些文件描述了数据格式和每列可能的类别。例如,值为
我有一台 AXIS IP 摄像机 (M1054),它通过 RTSP 发送 H264/RTP 流。 不幸的是,他们根本不发送 SPS 和 PPS NALU,他们只传输(分段的)编解码器切片。 我正在尝试
我是一名优秀的程序员,十分优秀!