- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我收到 YUV 帧 (kCVPixelFormatType_420YpCbCr8BiPlanarVideoRange),当从 CVPixelBufferRef 创建 CIImage 时,我得到:
initWithCVPixelBuffer failed because the CVPixelBufferRef is not non-IOSurface backed.
CVPixelBufferRef pixelBuffer;
size_t planeWidth[] = { width, width / 2 };
size_t planeHeight[] = { height, height / 2};
size_t planeBytesPerRow[] = { width, width / 2 };
CVReturn ret = CVPixelBufferCreateWithBytes(
kCFAllocatorDefault, width, height, kCVPixelFormatType_420YpCbCr8BiPlanarVideoRange,
data, bytesPerRow, 0, 0, 0, &pixelBuffer
);
if (ret != kCVReturnSuccess)
{
NSLog(@"FAILED");
CVPixelBufferRelease(pixelBuffer);
return;
}
CVPixelBufferLockBaseAddress(pixelBuffer, 0);
// fails
CIImage * image = [[CIImage alloc] initWithCVPixelBuffer:pixelBuffer];
CVPixelBufferUnlockBaseAddress(pixelBuffer, 0);
CVPixelBufferRelease(pixelBuffer);
[image release];
最佳答案
我假设问题是:“为什么会出现此错误?”
要使 CVPixelBuffer IOSurface 得到支持,您需要在创建 CVPixelBuffer 时设置其属性。现在,您将“0”作为 CVPixelBufferCreateWithBytes 中倒数第二个参数传递。
在 CVPixelBufferCreate 中传递带有 kCVPixelBufferIOSurfacePropertiesKey 键和值为空字典的字典(使用默认的 IOSurface 选项,其他未记录)(因为您不能将 kCVPixelBufferIOSurfacePropertiesKey 与 CVPixelBufferCreateWithBytes 一起使用),将正确的字节复制到创建的 CVPixelBuffer (不要忘记字节对齐)。这就是你如何让它支持 IOSurface。
虽然我不确定它是否会因为像素格式而为您消除所有错误。我的理解是 GPU 必须能够以该像素格式保存纹理才能用作 IOSurfaces,尽管我不是 100% 确定。
注意:可以在 this SO answer 中找到 kCVPixelFormatType_420YpCbCr8BiPlanarVideoRange 的正确复制像素字节.
关于ios - initWithCVPixelBuffer 失败,因为 CVPixelBufferRef 不是非 IOSurface 支持的,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/10168746/
我想从图像创建视频。 所以,我是引用链接的来源。 链接:CVPixelBufferPool Error ( kCVReturnInvalidArgument/-6661) func writeAnim
如何将 CVPixelBufferRef 转换为 NSImage 或 CGImageRef?我需要能够在核心动画层中显示像素缓冲区的内容。 最佳答案 要将缓冲区转换为图像,您需要首先将缓冲区转换为 C
我正在使用 GPUImage 库函数来操作 CVPixelbuffer 的高度和宽度。我正在录制纵向视频,当用户旋转设备时,我的屏幕会自动调整为横向模式。我希望横向框架适合屏幕。 例如:- 我以 32
我使用的 API 只提供纹理对象的整数 ID,我需要将该纹理的数据传递给 AVAssetWriter 以创建视频。 我知道如何从像素缓冲区 (CVPixelBufferRef) 创建 CVOpenGL
我正在做一个项目,在这个项目中我从 UIImage 生成一个视频,代码是我在这里找到的,我现在正在努力优化它几天(对于大约 300 张图像,它需要大约 5 分钟模拟器,并且由于内存而在设备上崩溃)。
我正在使用 AVCaptureVideoDataOutput 和 AVCaptureAudioDataOutput 录制视频和音频,并在 captureOutput:didOutputSampleBu
我正在使用 AVComposition 编写一些视频处理代码。仅提供必要的背景详细信息,我从我无法控制的苹果 API 收到一个 CVPixelBuffer。这个 CVPixel 缓冲区包含一个先前渲染
我正在尝试根据用户的输入裁剪和缩放 CMSampleBufferRef,在 ratio 上,下面的代码采用 CMSampleBufferRef,将其转换为 CVImageBufferRef 并使用 C
我正在使用 glReadPixels 将数据读入 CVPixelBufferRef。我使用 CVPixelBufferRef 作为 AVAssetWriter 的输入。不幸的是,像素格式似乎不匹配。
我是 iOS 编程和多媒体的新手,我正在研究一个名为 RosyWriter 的示例项目,该项目由 apple 在 this link 提供。 .在这里,我看到在代码中有一个名为 captureOutp
我正在我的 iOS 应用程序中录制实时视频。在另一个 Stack Overflow page ,我发现您可以使用 vImage_Buffer 处理我的帧。 问题是我不知道如何从输出的 vImage_b
我们曾经像下面这样初始化 CVPixelBufferRef。 CVPixelBufferRef pxbuffer = NULL; 但是在 Swift 中我们不能使用 NULL,所以我们尝试了下面的
在 objective-c 中,您可以轻松地将 CVImageBufferRef 转换为 CVPixelBufferRef: CMSampleBufferRef sampleBuffer = some
我想将 UIImage 对象转换为 CVPixelBufferRef 对象,但我完全不知道。而且我找不到执行此类操作的任何示例代码。 有人可以帮帮我吗?提前致谢! 你好 最佳答案 有不同的方法可以做到
我正在使用 BlackMagic DeckLink SDK 尝试从 BM 设备捕获帧。 我正在尝试从 DeckLinkController::VideoInputFrameArrived 回调中的 I
尝试在 SCNRender 对象的每次调用渲染上从 MTLTexture 创建 CVPixelBufferRef: CVPixelBufferLockBaseAddress(pixelBuffer
我需要创建一个 CVPixelBufferRef 的副本,以便能够使用副本中的值以按位方式操作原始像素缓冲区。我似乎无法使用 CVPixelBufferCreate 或 CVPixelBufferCr
如何从 CVPixelBufferRef 获取 RGB(或任何其他格式)像素值?我尝试了很多方法,但都没有成功。 func captureOutput(captureOutput: AVCapture
我正在使用 AVCaptureSession 和 AVCapturePhotoOutput 以 kCVPixelFormatType_14Bayer_RGGB 格式从设备相机捕获 RAW 照片数据。
我正在编写自定义电影录制应用程序,并实现了 AVAssetWriter 和 AVAssetWriterInputPixelBufferAdaptor 以将帧写入文件。在 DataOutputDeleg
我是一名优秀的程序员,十分优秀!