gpt4 book ai didi

ios - 再次编辑时 Core Graphics 结果图像不起作用

转载 作者:塔克拉玛干 更新时间:2023-11-02 07:55:56 26 4
gpt4 key购买 nike

我有两种方法正在使用,但它们的效果并不理想。第一个是 Perlin 噪声发生器,它导出随机云的黑白 UIImage,并且运行良好。第二种方法采用 UIImage 并过滤掉高于或低于给定亮度的所有像素,在不需要的像素所在的位置返回具有透明度的图像,并且它与我一直使用的黑白测试图像完美配合。

但是当我尝试将图像从第一种方法输入到第二种方法时,它不起作用。无论输入值如何,每个像素都被删除,我得到一个空白的 UIImage。 (需要明确的是,这是一个非零的 UIImage,除了透明像素外什么都没有,就好像每个像素都被计为超出所需的亮度范围,而不管该像素的实际亮度如何。)

下面是两种方法。我从教程和 SO 答案中改编了每一个,但虽然我对 Core Graphics 不是 100% 满意,但它们对我来说似乎相当简单:第一个遍历每个像素并使用 Perlin 公式中的 RGB 值为其着色,第二个创建基于输入值的掩码。 (注意:两者都是 UIImage 上的类别方法,因此后一种方法中的“self”引用指的是源图像。)

+ (UIImage *)perlinMapOfSize:(CGSize)size {
CZGPerlinGenerator *generator = [[CZGPerlinGenerator alloc] init];
generator.octaves = 10;
generator.persistence = 0.5;
generator.zoom = 150;

CGContextRef ctx = [self contextSetup:size];

CGContextSetRGBFillColor(ctx, 0.000, 0.000, 0.000, 1.000);
CGContextFillRect(ctx, CGRectMake(0.0, 0.0, size.width, size.height));
for (CGFloat x = 0.0; x<size.width; x+=1.0) {
for (CGFloat y=0.0; y<size.height; y+=1.0) {
double value = [generator perlinNoiseX:x y:y z:0 t:0];
CGContextSetRGBFillColor(ctx, value, value, value, 1.0);
CGContextFillRect(ctx, CGRectMake(x, y, 1.0, 1.0));
}
}

return [self finishImageContext];
}

-(UIImage*)imageWithLumaMaskFromDark:(CGFloat)lumaFloor toLight:(CGFloat)lumaCeil {
// inputs range from 0 - 255
CGImageRef rawImageRef = self.CGImage;

const CGFloat colorMasking[6] = {lumaFloor, lumaCeil, lumaFloor, lumaCeil, lumaFloor, lumaCeil};

UIGraphicsBeginImageContext(self.size);
CGImageRef maskedImageRef = CGImageCreateWithMaskingColors(rawImageRef, colorMasking);
{
//if in iphone
CGContextTranslateCTM(UIGraphicsGetCurrentContext(), 0.0, self.size.height);
CGContextScaleCTM(UIGraphicsGetCurrentContext(), 1.0, -1.0);
}

CGContextDrawImage(UIGraphicsGetCurrentContext(), CGRectMake(0, 0, self.size.width, self.size.height), maskedImageRef);
UIImage *result = UIGraphicsGetImageFromCurrentImageContext();
CGImageRelease(maskedImageRef);
UIGraphicsEndImageContext();
return result;
}

有谁知道为什么前一种方法的图像与后者不兼容?前一种方法成功返回云图像,后一种方法处理我从计算机或互联网输入的每张图像,而不是前一种方法的图像。

我假设第二种方法中的 CGImageCreateWithMaskingColors() 调用正在寻找第一种方法没有放入图像中的一些信息,或者其他我不知道的东西系统足够好,可以找出问题所在。

任何人都可以解释一下吗?

编辑:根据要求,这里是上面提到的另外两种方法。我知道,在类别中使用类似这样的类方法是一种奇怪的设置,但这是我在教程中找到代码的方式并且它有效,所以我从来没有费心去改变它。

+ (CGContextRef) contextSetup: (CGSize) size {
UIGraphicsBeginImageContext(size);
CGContextRef context = UIGraphicsGetCurrentContext();
UIGraphicsPushContext(context);
//NSLog(@"Begin drawing");
return context;
}

+ (UIImage *) finishImageContext {
//NSLog(@"End drawing");
UIGraphicsPopContext();
UIImage *outputImage = UIGraphicsGetImageFromCurrentImageContext();
UIGraphicsEndImageContext();
return outputImage;
}

编辑 2: 根据一些研究,CGImageCreateWithMaskingColors() 函数不适用于包含 alpha 分量的图像,我重新安排了第一种方法,如下所示.我的直觉告诉我这就是问题所在,但我有点摸不着头脑。这是我尝试使用 kCGImageAlphaNone 创建图像的尝试,但现在最后的 UIGraphicsGetImageFromCurrentImageContext() 返回 nil。

+ (UIImage *)perlinMapOfSize:(CGSize)size {
CZGPerlinGenerator *generator = [[CZGPerlinGenerator alloc] init];
generator.octaves = 10;
generator.persistence = 0.5;
generator.zoom = 150;

CGColorSpaceRef colorSpace = CGColorSpaceCreateDeviceRGB();
CGContextRef ctx = CGBitmapContextCreate(NULL, size.width, size.height, 8, size.width * 4, colorSpace, kCGImageAlphaNoneSkipLast);
UIGraphicsPushContext(ctx);

CGContextSetRGBFillColor(ctx, 0.000, 0.000, 0.000, 1.0);
CGContextFillRect(ctx, CGRectMake(0.0, 0.0, size.width, size.height));
for (int x = 0; x<size.width; x++) {
for (int y=0; y<size.height; y++) {
double value = [generator perlinNoiseX:x y:y z:0 t:0];
CGContextSetRGBFillColor(ctx, value, value, value, 1.0);
CGContextFillRect(ctx, CGRectMake(x, y, 1.0, 1.0));
}
}

UIImage *outputImage = UIGraphicsGetImageFromCurrentImageContext();
NSLog(@"Output: %@", outputImage);
UIGraphicsEndImageContext();
CGContextRelease(ctx);
return outputImage;
}

最佳答案

正如您所发现的,CGImageCreateWithMaskingColors 需要没有 alpha channel 的图像。但是,您尝试的修复不起作用 @matt points out因为您正在尝试将图像上下文函数调用(例如 UIGraphicsGetImageFromCurrentImageContext)与位图上下文混合和匹配。

因此,最简单的解决方法是继续使用图像上下文,但将其设置为不透明。您可以通过调用 UIGraphicsBeginImageContextWithOptions 并将 YES 提供给 opaque 参数来执行此操作,这将输出没有 alpha channel 的图像。

尽管如此,在这里使用位图上下文将是更合适的解决方案,因为它允许您直接操作像素数据,而不是进行大量的 CGContextFillRect 调用。

像这样应该可以达到预期的效果:

+(UIImage *)perlinMapOfSize:(CGSize)size {

// your generator setup
CZGPerlinGenerator *generator = [[CZGPerlinGenerator alloc] init];
generator.octaves = 10;
generator.persistence = 0.5;
generator.zoom = 150;

// bitmap info
size_t width = size.width;
size_t height = size.height;
size_t bytesPerPixel = 4;
size_t bitsPerComponent = 8;
size_t bytesPerRow = width * bytesPerPixel;
CGBitmapInfo bitmapInfo = kCGImageAlphaNoneSkipLast | kCGBitmapByteOrder32Big;

// allocate memory for the bitmap
UInt8* imgData = calloc(bytesPerRow, height);

// create RGB color space
CGColorSpaceRef colorSpace = CGColorSpaceCreateDeviceRGB();

// create an RGBA bitmap context where the alpha component is ignored
CGContextRef ctx = CGBitmapContextCreate(imgData, width, height, bitsPerComponent, bytesPerRow, colorSpace, bitmapInfo);

// iterate over pixels
for (int x = 0; x < width; x++) {
for (int y = 0; y < height; y++) {

// the current pixel index
size_t byte = x * bytesPerPixel + y * bytesPerRow;

// get noise data for given x & y
int value = round([generator perlinNoiseX:x y:y z:0 t:0]*255.0);

// limit values (not too sure of the range of values that the method outputs – this may not be needed)
if (value > 255) value = 255;
else if (value < 0) value = 0;

// write values to pixel components
imgData[byte] = value; // R
imgData[byte+1] = value; // G
imgData[byte+2] = value; // B
}
}

// get image
CGImageRef imgRef = CGBitmapContextCreateImage(ctx);
UIImage* img = [UIImage imageWithCGImage:imgRef];

// clean up
CGContextRelease(ctx);
CGColorSpaceRelease(colorSpace);
CGImageRelease(imgRef);
free(imgData);

return img;
}

其他一些注意事项

UIGraphicsBeginImageContext(WithOptions) 自动使图像上下文成为当前上下文——因此您不需要使用它执行 UIGraphicsPushContext/UIGraphicsPopContext .

UIGraphicsBeginImageContext 使用 1.0 的比例 – 这意味着您使用的是像素大小,而不是点数。因此,您输出的图像可能不适合 2x 或 3x 显示器。您通常应该使用 UIGraphicsBeginImageContextWithOptions 代替,如果您只是操作,则使用 0.0(主屏幕比例)或 image.scale 的比例给定的图像(适用于您的 imageWithLumaMaskFromDark 方法)。

CGBitmapContextCreate 还将创建一个比例为 1.0 的上下文。如果您想将图像缩放到与屏幕相同的比例,您只需将输入的宽度和高度乘以屏幕比例即可:

CGFloat scale = [UIScreen mainScreen].scale;

size_t width = size.width*scale;
size_t height = size.height*scale;

然后在创建输出 UIImage 时提供比例:

UIImage* img = [UIImage imageWithCGImage:imgRef scale:scale orientation:UIImageOrientationUp];

如果您想在位图上下文中执行一些 CGContext 绘图调用,您还需要在绘图之前对其进行缩放,以便您可以在点坐标系中工作:

CGContextScaleCTM(ctx, scale, scale);

关于ios - 再次编辑时 Core Graphics 结果图像不起作用,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/37646076/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com