- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我使用英特尔硬件 MFT 将 NV12 帧编码为 H264 流,并使用 Live555 通过 LAN 上的 RTP 流式传输编码帧,并在另一端设置 ffplay 来解码和显示相同的帧。该设置与软件编码器(SYNC 或 ASYNC 软件 MFT)配合得很好,但 ffplay 提示在 Intel 硬件 MFT 中完成编码时 SPS/PPS 不可用,并且只显示困惑的屏幕。我发现英特尔硬件编码器在输入初始样本后会触发 MF_E_TRANSFORM_STREAM_CHANGE 事件,并通过 MF_MT_MPEG_SEQUENCE_HEADER 使 SPS/PPS 可用。我能够捕获 MF_E_TRANSFORM_STREAM_CHANGE 事件并获取序列头 blob。
问题是,Live555需要单独设置SPS和PPS。但是,我对从 MF_MT_MPEG_SEQUENCE_HEADER blob 中提取 SPS 和 PPS 感到非常困惑。
根据我的理解,并在其他线程中进一步查找,SPS和PPS分别以00 00 00 01 67和0 00 00 01 68开头。但是,我在从英特尔编码器收到的 blob 中没有找到这些序列。
https://github.com/cisco/openh264/issues/756SPS 开始:00 00 00 01 67PPS 开始:00 00 00 01 68
Sequence header obtained from intel MFT:
Sequence header size 50
Squence Header: 0 0 1 27 64 0 28 ac 2b 40 3c 1 13 f2 e0 22 0 0 3 0 2 0 0 3 0 79 d0 80 f 42 0 3 d0 93 7b df 7 68 70 ca 80 0 0 0 1 28 ee 3c b0 0
vector<byte> sequenceHeaderData;
UINT32 sequenceHeaderDataSize = 0;
MFT_OUTPUT_DATA_BUFFER _outputDataBuffer;
memset(&_outputDataBuffer, 0, sizeof _outputDataBuffer);
_outputDataBuffer.dwStreamID = outputStreamID;
_outputDataBuffer.dwStatus = 0;
_outputDataBuffer.pEvents = nullptr;
_outputDataBuffer.pSample = nullptr;
HRESULT mftProcessOutput = _pEncoder->ProcessOutput(0, 1, &_outputDataBuffer, &processOutputStatus);
if (MF_E_TRANSFORM_STREAM_CHANGE == mftProcessOutput)
{
// some encoders want to renegotiate the output format.
if (_outputDataBuffer.dwStatus & MFT_OUTPUT_DATA_BUFFER_FORMAT_CHANGE)
{
CComPtr<IMFMediaType> pNewOutputMediaType = nullptr;
HRESULT res = _pEncoder->GetOutputAvailableType(outputStreamID, 1, &pNewOutputMediaType);
res = _pEncoder->SetOutputType(outputStreamID, pNewOutputMediaType, 0);//setting the type again
CHECK_HR(res, "Failed to set output type during stream change");
{
CComPtr<IMFMediaType> pCurOutputMediaType = nullptr;
HRESULT res = _pEncoder->GetOutputAvailableType(outputStreamID, 1, &pCurOutputMediaType);
res = pCurOutputMediaType->GetBlobSize(MF_MT_MPEG_SEQUENCE_HEADER, &sequenceHeaderDataSize);
if (SUCCEEDED(res) && sequenceHeaderDataSize > 0)
{
sequenceHeaderData.resize(sequenceHeaderDataSize);
pCurOutputMediaType->GetBlob(MF_MT_MPEG_SEQUENCE_HEADER, sequenceHeaderData.data(), sequenceHeaderDataSize, NULL);
cout << "Sequence header size " << sequenceHeaderDataSize << std::endl;
}
else
{
cout << "Sequence header is not available" << std::endl;
}
}
}
}
最佳答案
As per my understanding, and further lookup in other threads, SPS and PPS start with 00 00 00 01 67 and 0 00 00 01 68 respectively.
你假设错了。
来自您的示例标题:
这是 SPS:0 0 1 27 64 0 28 ac 2b 40 3c 1 13 f2 e0 22 0 0 3 0 2 0 0 3 0 79 d0 80 f 42 0 3 d0 93 7b df 7 68 70 ca 80
这是 PPS:0 0 0 1 28 ee 3c b0 0
SPS nalu 类型定义为第一个字节的最后 5 位中的 7,位于起始码之后。 (不是 67)。
PPS nalu 类型在第一个字节的最后 5 位(起始码之后)分别为 8(不是 68)。
注意:起始码只能包含 3 个字节,值分别为:0 0 1。
关于video-streaming - 媒体基金会 : SPS/PPS problem with Intel hardware MFT,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/58936296/
我得到了很多作为 .dat 到达的数据集带有用于转换为 SPSS 的语法文件的文件 ( .sps )。我是 R 用户,所以我需要转换 .dat文件变成 .sav R 可以读取。 过去,我使用 PSPP
大家好,我一直在试图找出如何从 SPS 最终单位计算宽度和高度。我有具有这些参数的 H264 视频 h264 (High), yuvj420p(pc), 1280x720 [SAR 1:1 DAR 1
我有一个提供 H264 编码帧的设备。那些我想使用 LIVE555 通过网络传输的。 问题:这些帧不包括 SPS 和 PPS NAL 单元。但是,我可以访问一个函数,该函数在设备对第一帧进行编码后为我
我有两个视频流单元能够流式传输实时视频输入: AXIS Q7424-R 视频编码器 EPIPHAN VGADVI 广播器 99460 - 我正在使用 gstreamer 在运行 Linux 的客户端终
我正在尝试初始化一个 FFMPEG H264 编解码器上下文,用 SPS 帧填充额外数据字段,如下所示: #include #include int main() { const ch
我正在使用 gstreamer 摄取不同类型的安全摄像头 RTSP 流。在大多数情况下,我使用与此类似的管道 gst-launch-1.0 rtspsrc location=rtsp:// proto
我编写了一个 RTP 服务器来接收通过命令 ffmpeg -i test.mp4 rtp rtp://ip:port(客户端)发送的 RTP 数据包,服务器可以获得最终类型 24(STAP-A)。 我
我使用新 API 将图像从相机推送到 videoToolBox 编码器并从编码器回调中获取编码的 CMSampleBufferRef 我需要这些 sps 和 pts 用于 CMVideoFormatD
我正在尝试使用 MediaCodec NDK 解码具有非默认比色法的视频。我将 SPS 和 PPS 分别提供给 csd-0 和 csd-1 缓冲区,但这些信息似乎不会影响解码视频的外观。 首先,我初始
谁能给我指点文档,帮助我获得 iPhone 的正确 SPS 和 PPS 值。 最佳答案 问题有点不清楚... Picture Parameter Set 描述在最新的ITU-T release 7.3
我正在尝试将一个大文件 (1 GB) 从代码上传到 SharePoint 2013 on prem。我关注了this tutorial ,我从 NuGet 下载包“Microsoft.SharePoi
我对图像进行编码以供视频捕获器使用,并通过 ffmpeg 将其编码为 h264 并发送到我的客户端 pc 。 我的客户端电脑解码并显示它。它可以很好地解码和显示。 但我将这些压缩图像保存在一个文件中。
我使用 ffmpeg 和 libx264 对我的视频进行编码,当我打印 AVPacket 数据时,我发现有些东西只存在于第一个 IDR 之前。有人可以告诉我那是什么,谢谢。 0 0 1 6 5 ff
对于我的硬件解码器,我需要了解有关视频编解码器(如 h264)的其他编解码器规范?如何使用 libav ffmpeg 提取低级编解码器信息? 我需要的数据:https://www.ffmpeg.org
我正在尝试在 h.264 中编码视频,当使用 Apples HTTP Live Streaming 工具拆分时,媒体文件分段器将通过媒体文件验证器我在拆分的 MPEG-TS 文件上遇到两个错误 WAR
我使用英特尔硬件 MFT 将 NV12 帧编码为 H264 流,并使用 Live555 通过 LAN 上的 RTP 流式传输编码帧,并在另一端设置 ffplay 来解码和显示相同的帧。该设置与软件编码
我有一个来自 IP 摄像机的原始 H.264 流,它被打包在 RTP 帧中。我想将原始 H.264 数据放入一个文件中,以便我可以使用 ffmpeg 对其进行转换。 因此,当我想将数据写入原始 H.2
我需要将输出表导出为 *.sps(SPSS 语法)格式。 我使用的代码 80% 的时间都有效: Sub Print_CM_to_sps() Dim FSO As Object Set FSO =
我有一个大的 CSV 文件,它附带两个元数据描述文件。一个扩展名为 .sas,另一个扩展名为 .sps。打开它们,它们描述了 CSV 数据格式和类别。这些文件描述了数据格式和每列可能的类别。例如,值为
我有一台 AXIS IP 摄像机 (M1054),它通过 RTSP 发送 H264/RTP 流。 不幸的是,他们根本不发送 SPS 和 PPS NALU,他们只传输(分段的)编解码器切片。 我正在尝试
我是一名优秀的程序员,十分优秀!