gpt4 book ai didi

ios - 将 OpenGL 纹理渲染到 CGContext 中的最快方法

转载 作者:塔克拉玛干 更新时间:2023-11-02 09:02:41 25 4
gpt4 key购买 nike

这里是简短的问题:

对于某些图层合成,我必须在 CGContext 中渲染 OpenGL 纹理。最快的方法是什么?

到目前为止的想法:

显然,调用 renderInContext 不会捕获 OpenGL 内容,而且 glReadPixels 太慢了。

对于某些“上下文”,我在层的委托(delegate)类中调用此方法:

- (void) drawLayer:(CALayer *)layer inContext:(CGContextRef)ctx

我考虑过使用 CVOpenGLESTextureCache,但这需要额外的渲染,而且渲染后似乎需要进行一些复杂的转换。

这是我现在的(糟糕的)实现:

glBindRenderbuffer(GL_RENDERBUFFER, displayRenderbuffer);

NSInteger x = 0, y = 0, width = backingWidth, height = backingHeight;
NSInteger dataLength = width * height * 4;
GLubyte *data = (GLubyte *) malloc(dataLength * sizeof(GLubyte));

glPixelStorei(GL_PACK_ALIGNMENT, 4);
glReadPixels(x, y, width, height, GL_RGBA, GL_UNSIGNED_BYTE, data);

CGDataProviderRef ref = CGDataProviderCreateWithData(NULL, data, dataLength, NULL);
CGColorSpaceRef colorspace = CGColorSpaceCreateDeviceRGB();
CGImageRef iref = CGImageCreate(width, height, 8, 32, width * 4, colorspace, kCGBitmapByteOrder32Big | kCGImageAlphaPremultipliedLast,
ref, NULL, true, kCGRenderingIntentDefault);

CGFloat scale = self.contentScaleFactor;
NSInteger widthInPoints, heightInPoints;
widthInPoints = width / scale;
heightInPoints = height / scale;

CGContextSetBlendMode(context, kCGBlendModeCopy);
CGContextDrawImage(context, CGRectMake(0.0, 0.0, widthInPoints, heightInPoints), iref);

// Clean up
free(data);
CFRelease(ref);
CFRelease(colorspace);
CGImageRelease(iref);

最佳答案

对于任何好奇的人,上面显示的方法不是最快的方法。

当一个 UIView 被要求提供它的内容时,它会要求它的层(通常是一个 CALayer)为它绘制它们。异常(exception):基于 OpenGL 的 View 使用 CAEAGLLayer(CALayer 的子类),使用相同的方法但不返回任何内容。 没有绘图发生

所以,如果你调用:

[someUIView.layer drawInContext:someContext];

它会起作用,而

[someOpenGLView.layer drawInContext:someContext];

不会。

如果您向任何基于 OpenGL 的 View 的父 View 询问其内容,这也会成为一个问题:它将递归地向其每个 subview 询问它们的内容,并且任何使用 CAEAGLLayer 的 subview 都不会返回任何内容(您你会看到一个黑色矩形)。

我在上面着手寻找 CALayer 的委托(delegate)方法 drawLayer:inContext: 的实现,我可以在任何基于 OpenGL 的 View 中使用它,以便 View 对象本身将提供其内容(而不是图层)。委托(delegate)方法是自动调用的:Apple 希望它以这种方式工作。

如果性能不是问题,您可以在 View 中实现简单快照方法的变体。该方法看起来像这样:

- (void) drawLayer:(CALayer *)layer inContext:(CGContextRef)ctx {

GLint backingWidth, backingHeight;

glBindRenderbufferOES(GL_RENDERBUFFER_OES, _colorRenderbuffer);

glGetRenderbufferParameterivOES(GL_RENDERBUFFER_OES, GL_RENDERBUFFER_WIDTH_OES, &backingWidth);
glGetRenderbufferParameterivOES(GL_RENDERBUFFER_OES, GL_RENDERBUFFER_HEIGHT_OES, &backingHeight);

NSInteger x = 0, y = 0, width = backingWidth, height = backingHeight;
NSInteger dataLength = width * height * 4;
GLubyte *data = (GLubyte*)malloc(dataLength * sizeof(GLubyte));

// Read pixel data from the framebuffer
glPixelStorei(GL_PACK_ALIGNMENT, 4);
glReadPixels(x, y, width, height, GL_RGBA, GL_UNSIGNED_BYTE, data);

CGDataProviderRef ref = CGDataProviderCreateWithData(NULL, data, dataLength, NULL);
CGColorSpaceRef colorspace = CGColorSpaceCreateDeviceRGB();
CGImageRef iref = CGImageCreate(width, height, 8, 32, width * 4, colorspace, kCGBitmapByteOrder32Big | kCGImageAlphaPremultipliedLast,
ref, NULL, true, kCGRenderingIntentDefault);
CGContextDrawImage(ctx, self.bounds, iref);
}

但是!这不是有效的性能。

glReadPixels,就像到处都提到的那样,不是一个快速调用。从 iOS 5 开始,Apple 公开了 CVOpenGLESTextureCacheRef - 基本上是一个共享缓冲区,可以同时用作 CVPixelBufferRef 和 OpenGL 纹理。最初,它被设计用作从视频帧获取 OpenGL 纹理的一种方式:现在它更常用于反向,从纹理获取视频帧。

因此,上述想法的更好实现是使用从 CVOpenGLESTextureCacheCreateTextureFromImage 获得的 CVPixelBufferRef,直接访问这些像素,将它们绘制到您缓存的 CGImage 中,并在上面的委托(delegate)方法中绘制到您的上下文中。

代码在这里。在每个渲染过程中,您将纹理绘制到纹理缓存中,该缓存链接到 CVPixelBuffer Ref:

- (void) renderToCGImage {

// Setup the drawing
[ochrContext useProcessingContext];
glBindFramebuffer(GL_FRAMEBUFFER, layerRenderingFramebuffer);
glViewport(0, 0, (int) self.frame.size.width, (int) self.frame.size.height);
[ochrContext setActiveShaderProgram:layerRenderingShaderProgram];

// Do the actual drawing
glActiveTexture(GL_TEXTURE4);
glBindTexture(GL_TEXTURE_2D, self.inputTexture);
glUniform1i(layerRenderingInputTextureUniform, 4);
glVertexAttribPointer(layerRenderingShaderPositionAttribute, 2, GL_FLOAT, 0, 0, kRenderTargetVertices);
glVertexAttribPointer(layerRenderingShaderTextureCoordinateAttribute, 2, GL_FLOAT, 0, 0, kRenderTextureVertices);

// Draw and finish up
glDrawArrays(GL_TRIANGLE_STRIP, 0, 4);
glFinish();

// Try running this code asynchronously to improve performance
dispatch_async(PixelBufferReadingQueue, ^{

// Lock the base address (can't get the address without locking it).
CVPixelBufferLockBaseAddress(renderTarget, 0);

// Get a pointer to the pixels
uint32_t * pixels = (uint32_t*) CVPixelBufferGetBaseAddress(renderTarget);

// Wrap the pixel data in a data-provider object.
CGDataProviderRef pixelWrapper = CGDataProviderCreateWithData(NULL, pixels, CVPixelBufferGetDataSize(renderTarget), NULL);

// Get a color-space ref... can't this be done only once?
CGColorSpaceRef colorSpaceRef = CGColorSpaceCreateDeviceRGB();

// Release the exusting CGImage
CGImageRelease(currentCGImage);

// Get a CGImage from the data (the CGImage is used in the drawLayer: delegate method above)
currentCGImage = CGImageCreate(self.frame.size.width,
self.frame.size.height,
8,
32,
4 * self.frame.size.width,
colorSpaceRef,
kCGBitmapByteOrder32Big | kCGImageAlphaPremultipliedLast,
pixelWrapper,
NULL,
NO,
kCGRenderingIntentDefault);

// Clean up
CVPixelBufferUnlockBaseAddress(renderTarget, 0);
CGDataProviderRelease(pixelWrapper);
CGColorSpaceRelease(colorSpaceRef);

});
}

然后非常简单地实现委托(delegate)方法:

- (void) drawLayer:(CALayer *)layer inContext:(CGContextRef)ctx {
CGContextDrawImage(ctx, self.bounds, currentCGImage);
}

关于ios - 将 OpenGL 纹理渲染到 CGContext 中的最快方法,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/19644585/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com