gpt4 book ai didi

ios - CVImageBufferRef 的 CVPixelBufferGetBytesPerRow() 返回 1080p 视频帧的意外错误值

转载 作者:行者123 更新时间:2023-12-01 16:18:38 28 4
gpt4 key购买 nike

我正在开发一个使用 AVFoundation 和 iDevices 后置摄像头进行实时视频处理的应用程序。 AVCaptureSession 配置了 sessionPreset AVCaputeSessionPreset1920x1080(全高清),视频设置 kCVPixelBufferPixelFormatTypeKey=kCVPixelFormatType_32BGRA 并将 CMSampleBufferRef 类型的样本缓冲区输出到 AVCaptureVideoDataOutput 委托(delegate)。使用视频/界面方向纵向(意味着预期大小为 1080x1920 的帧)。每次到达一帧时,都会从样本缓冲区中检索一个 CVImageBufferRef 以进一步访问它的原始字节。在访问此 CVImageBufferRef 实例的 CVPixelBufferGetBytesPerRow() 时,我得到的值是 4352,这在我看来是完全出乎意料的。我的期望是,对于整个帧宽度(1080),每行的字节数反射(reflect)了每个像素 4 个字节(BGRA),从而导致值 4320(=1080*4 字节)。每行字节数 = 4352,除以 4 字节,得到的帧宽为 1088。有谁知道为什么会发生这种情况?在按像素分析时,我无法使用 1080 的预期宽度,因为它会导致图像失真(检查转换为 UIImage 并保存到磁盘),我绝对需要使用 1088 作为宽度,因此图像是直的并且分析给出正确的结果-但这很奇怪。

由于我使用原始帧字节进行实时分析并期望使用 1080 的宽度,这对我来说非常重要,所以我非常感谢在这个问题上的帮助。

使用的设备:
- 带有 iOS 6.0.1 的 iPod touch 5G
- 装有 iOS 7.0.2 的 iPhone 5S

代码摘录:

- (uint8_t*) convertSampleBuffer: (CMSampleBufferRef) sampleBuffer {
CVImageBufferRef imageBuffer = CMSampleBufferGetImageBuffer(sampleBuffer);
size_t bytesPerRow = CVPixelBufferGetBytesPerRow(imageBuffer); // = 4352 (=1088*4)
.....
}

最佳答案

Apple 于 2014 年 5 月 1 日发布了“技术问答 QA1829 了解 CVPixelBufferGetBytesPerRow 返回的每行字节值”,其中指出这是由于硬件对齐要求。有关详细信息,请参阅技术说明。

关于ios - CVImageBufferRef 的 CVPixelBufferGetBytesPerRow() 返回 1080p 视频帧的意外错误值,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/19587185/

28 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com