gpt4 book ai didi

objective-c - 使用 Cocoa 渲染像素缓冲区

转载 作者:行者123 更新时间:2023-12-03 17:37:48 25 4
gpt4 key购买 nike

我搜索了各种 Apple 文档和 StackOverflow 答案,但没有任何真正帮助,仍然有一个空白的应用程序窗口。我试图在 NSWindow 中显示像素缓冲区的内容,为此我分配了一个缓冲区:

UInt8* row = (UInt8 *) malloc(WINDOW_WIDTH * WINDOW_HEIGHT * bytes_per_pixel);

UInt32 pitch = (WINDOW_WIDTH * bytes_per_pixel);

// For each row
for (UInt32 y = 0; y < WINDOW_HEIGHT; ++y) {
Pixel* pixel = (Pixel *) row;
// For each pixel in a row
for (UInt32 x = 0; x < WINDOW_WIDTH; ++x) {
*pixel++ = 0xFF000000;
}
row += pitch;
}

这应该准备一个带有红色像素的缓冲区。然后我创建一个 NSBitmapImageRep:

NSBitmapImageRep *imageRep = [[NSBitmapImageRep alloc] initWithBitmapDataPlanes:(u8 *) row
pixelsWide:WINDOW_WIDTH
pixelsHigh:WINDOW_HEIGHT
bitsPerSample:8
samplesPerPixel:4
hasAlpha:YES
isPlanar:NO
colorSpaceName:NSDeviceRGBColorSpace
bytesPerRow:WINDOW_WIDTH * 4
bitsPerPixel:32];

然后将其转换为NSImage:

NSSize imageSize = NSMakeSize(CGImageGetWidth([imageRep CGImage]), CGImageGetHeight([imageRep CGImage]));
NSImage *image = [[NSImage alloc] initWithSize:imageSize];
[image addRepresentation:imageRep];

然后我正在配置 View :

NSView *view = [window contentView];
[view setWantsLayer: YES];
[[view layer] setContents: image];

遗憾的是,这并没有给我预期的结果。

最佳答案

以下是您的代码的一些问题:

  1. 您在每个 y 循环末尾按 pitch 递增 row。您从未将指针保存到缓冲区的开头。当您创建 NSBitmapImageRep 时,您将传递一个超出缓冲区末尾的指针。

  2. 您将 row 作为 initWithBitmapDataPlanes:... 的第一个 (planes) 参数传递,但您需要传递&行The documentation says

    An array of character pointers, each of which points to a buffer containing raw image data.[…]

    “字符指针数组”意味着(在 C 语言中)您将一个指针传递给另一个指针。

  3. 你说“这应该准备一个带有红色像素的缓冲区。”但是你用0xFF000000填充了缓冲区,并且你说hasAlpha:YES。根据初始化程序使用的字节顺序,您可以将 Alpha channel 设置为 0,或者将 Alpha channel 设置为 0xFF 但将所有颜色 channel 设置为 0。

    事实上,您已将每个像素设置为不透明黑色(alpha = 0xFF,颜色全部为零)。尝试将每个像素设置为 0xFF00007F,您将得到暗红色(alpha = 0xFF,红色 = 0x7F)。

因此:

typedef struct {
uint8_t red;
uint8_t green;
uint8_t blue;
uint8_t alpha;
} Pixel;

@implementation AppDelegate

- (void)applicationDidFinishLaunching:(NSNotification *)aNotification {
size_t width = self.window.contentView.bounds.size.width;
size_t height = self.window.contentView.bounds.size.height;

Pixel color = { .red=127, .green=0, .blue=0, .alpha=255 };

size_t pitch = width * sizeof(Pixel);
uint8_t *buffer = malloc(pitch * height);

for (size_t y = 0; y < height; ++y) {
Pixel *row = (Pixel *)(buffer + y * pitch);
for (size_t x = 0; x < width; ++x) {
row[x] = color;
}
}

NSBitmapImageRep *rep = [[NSBitmapImageRep alloc] initWithBitmapDataPlanes:&buffer
pixelsWide:width pixelsHigh:height
bitsPerSample:8 samplesPerPixel:4 hasAlpha:YES isPlanar:NO
colorSpaceName:NSDeviceRGBColorSpace
bytesPerRow:pitch bitsPerPixel:sizeof(Pixel) * 8];
NSImage *image = [[NSImage alloc] initWithSize:NSMakeSize(width, height)];
[image addRepresentation:rep];
self.window.contentView.wantsLayer = YES;
self.window.contentView.layer.contents = image;
}

@end

结果:

resulting window

请注意,我没有释放缓冲区。如果在 rep 被销毁之前释放 buffer,事情就会出错。例如,如果您只是将 free(buffer) 添加到 applicationDidFinishLaunching: 的末尾,则窗口将显示为灰色。

这是一个亟待解决的棘手问题。如果您使用 Core Graphics,内存管理就会得到正确处理。您可以要求 Core Graphics 为您分配缓冲区(通过传递 NULL 而不是有效指针),它会在适当的时候释放缓冲区。

您必须释放您创建的 Core Graphics 对象以避免内存泄漏,但您可以在使用完它们后立即执行此操作。产品 > 分析命令还可以帮助您查找 Core Graphics 对象的泄漏,但无法帮助您查找未释放的 malloc block 的泄漏。

核心显卡解决方案如下所示:

typedef struct {
uint8_t red;
uint8_t green;
uint8_t blue;
uint8_t alpha;
} Pixel;

@implementation AppDelegate

- (void)applicationDidFinishLaunching:(NSNotification *)aNotification {
size_t width = self.window.contentView.bounds.size.width;
size_t height = self.window.contentView.bounds.size.height;

CGColorSpaceRef rgb = CGColorSpaceCreateWithName(kCGColorSpaceLinearSRGB);
CGContextRef gc = CGBitmapContextCreate(NULL, width, height, 8, 0, rgb, kCGImageByteOrder32Big | kCGImageAlphaPremultipliedLast);
CGColorSpaceRelease(rgb);

size_t pitch = CGBitmapContextGetBytesPerRow(gc);
uint8_t *buffer = CGBitmapContextGetData(gc);

Pixel color = { .red=127, .green=0, .blue=0, .alpha=255 };

for (size_t y = 0; y < height; ++y) {
Pixel *row = (Pixel *)(buffer + y * pitch);
for (size_t x = 0; x < width; ++x) {
row[x] = color;
}
}

CGImageRef image = CGBitmapContextCreateImage(gc);
CGContextRelease(gc);
self.window.contentView.wantsLayer = YES;
self.window.contentView.layer.contents = (__bridge id)image;
CGImageRelease(image);
}

@end

关于objective-c - 使用 Cocoa 渲染像素缓冲区,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/48293376/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com