- iOS/Objective-C 元类和类别
- objective-c - -1001 错误,当 NSURLSession 通过 httpproxy 和/etc/hosts
- java - 使用网络类获取 url 地址
- ios - 推送通知中不播放声音
我有两种方法正在使用,但它们的效果并不理想。第一个是 Perlin 噪声发生器,它导出随机云的黑白 UIImage,并且运行良好。第二种方法采用 UIImage 并过滤掉高于或低于给定亮度的所有像素,在不需要的像素所在的位置返回具有透明度的图像,并且它与我一直使用的黑白测试图像完美配合。
但是当我尝试将图像从第一种方法输入到第二种方法时,它不起作用。无论输入值如何,每个像素都被删除,我得到一个空白的 UIImage。 (需要明确的是,这是一个非零的 UIImage,除了透明像素外什么都没有,就好像每个像素都被计为超出所需的亮度范围,而不管该像素的实际亮度如何。)
下面是两种方法。我从教程和 SO 答案中改编了每一个,但虽然我对 Core Graphics 不是 100% 满意,但它们对我来说似乎相当简单:第一个遍历每个像素并使用 Perlin 公式中的 RGB 值为其着色,第二个创建基于输入值的掩码。 (注意:两者都是 UIImage 上的类别方法,因此后一种方法中的“self”引用指的是源图像。)
+ (UIImage *)perlinMapOfSize:(CGSize)size {
CZGPerlinGenerator *generator = [[CZGPerlinGenerator alloc] init];
generator.octaves = 10;
generator.persistence = 0.5;
generator.zoom = 150;
CGContextRef ctx = [self contextSetup:size];
CGContextSetRGBFillColor(ctx, 0.000, 0.000, 0.000, 1.000);
CGContextFillRect(ctx, CGRectMake(0.0, 0.0, size.width, size.height));
for (CGFloat x = 0.0; x<size.width; x+=1.0) {
for (CGFloat y=0.0; y<size.height; y+=1.0) {
double value = [generator perlinNoiseX:x y:y z:0 t:0];
CGContextSetRGBFillColor(ctx, value, value, value, 1.0);
CGContextFillRect(ctx, CGRectMake(x, y, 1.0, 1.0));
}
}
return [self finishImageContext];
}
-(UIImage*)imageWithLumaMaskFromDark:(CGFloat)lumaFloor toLight:(CGFloat)lumaCeil {
// inputs range from 0 - 255
CGImageRef rawImageRef = self.CGImage;
const CGFloat colorMasking[6] = {lumaFloor, lumaCeil, lumaFloor, lumaCeil, lumaFloor, lumaCeil};
UIGraphicsBeginImageContext(self.size);
CGImageRef maskedImageRef = CGImageCreateWithMaskingColors(rawImageRef, colorMasking);
{
//if in iphone
CGContextTranslateCTM(UIGraphicsGetCurrentContext(), 0.0, self.size.height);
CGContextScaleCTM(UIGraphicsGetCurrentContext(), 1.0, -1.0);
}
CGContextDrawImage(UIGraphicsGetCurrentContext(), CGRectMake(0, 0, self.size.width, self.size.height), maskedImageRef);
UIImage *result = UIGraphicsGetImageFromCurrentImageContext();
CGImageRelease(maskedImageRef);
UIGraphicsEndImageContext();
return result;
}
有谁知道为什么前一种方法的图像与后者不兼容?前一种方法成功返回云图像,后一种方法处理我从计算机或互联网输入的每张图像,而不是前一种方法的图像。
我假设第二种方法中的 CGImageCreateWithMaskingColors()
调用正在寻找第一种方法没有放入图像中的一些信息,或者其他我不知道的东西系统足够好,可以找出问题所在。
任何人都可以解释一下吗?
编辑:根据要求,这里是上面提到的另外两种方法。我知道,在类别中使用类似这样的类方法是一种奇怪的设置,但这是我在教程中找到代码的方式并且它有效,所以我从来没有费心去改变它。
+ (CGContextRef) contextSetup: (CGSize) size {
UIGraphicsBeginImageContext(size);
CGContextRef context = UIGraphicsGetCurrentContext();
UIGraphicsPushContext(context);
//NSLog(@"Begin drawing");
return context;
}
+ (UIImage *) finishImageContext {
//NSLog(@"End drawing");
UIGraphicsPopContext();
UIImage *outputImage = UIGraphicsGetImageFromCurrentImageContext();
UIGraphicsEndImageContext();
return outputImage;
}
编辑 2: 根据一些研究,CGImageCreateWithMaskingColors()
函数不适用于包含 alpha 分量的图像,我重新安排了第一种方法,如下所示.我的直觉告诉我这就是问题所在,但我有点摸不着头脑。这是我尝试使用 kCGImageAlphaNone
创建图像的尝试,但现在最后的 UIGraphicsGetImageFromCurrentImageContext()
返回 nil。
+ (UIImage *)perlinMapOfSize:(CGSize)size {
CZGPerlinGenerator *generator = [[CZGPerlinGenerator alloc] init];
generator.octaves = 10;
generator.persistence = 0.5;
generator.zoom = 150;
CGColorSpaceRef colorSpace = CGColorSpaceCreateDeviceRGB();
CGContextRef ctx = CGBitmapContextCreate(NULL, size.width, size.height, 8, size.width * 4, colorSpace, kCGImageAlphaNoneSkipLast);
UIGraphicsPushContext(ctx);
CGContextSetRGBFillColor(ctx, 0.000, 0.000, 0.000, 1.0);
CGContextFillRect(ctx, CGRectMake(0.0, 0.0, size.width, size.height));
for (int x = 0; x<size.width; x++) {
for (int y=0; y<size.height; y++) {
double value = [generator perlinNoiseX:x y:y z:0 t:0];
CGContextSetRGBFillColor(ctx, value, value, value, 1.0);
CGContextFillRect(ctx, CGRectMake(x, y, 1.0, 1.0));
}
}
UIImage *outputImage = UIGraphicsGetImageFromCurrentImageContext();
NSLog(@"Output: %@", outputImage);
UIGraphicsEndImageContext();
CGContextRelease(ctx);
return outputImage;
}
最佳答案
正如您所发现的,CGImageCreateWithMaskingColors
需要没有 alpha channel 的图像。但是,您尝试的修复不起作用 @matt points out因为您正在尝试将图像上下文函数调用(例如 UIGraphicsGetImageFromCurrentImageContext
)与位图上下文混合和匹配。
因此,最简单的解决方法是继续使用图像上下文,但将其设置为不透明。您可以通过调用 UIGraphicsBeginImageContextWithOptions
并将 YES
提供给 opaque
参数来执行此操作,这将输出没有 alpha channel 的图像。
尽管如此,在这里使用位图上下文将是更合适的解决方案,因为它允许您直接操作像素数据,而不是进行大量的 CGContextFillRect
调用。
像这样应该可以达到预期的效果:
+(UIImage *)perlinMapOfSize:(CGSize)size {
// your generator setup
CZGPerlinGenerator *generator = [[CZGPerlinGenerator alloc] init];
generator.octaves = 10;
generator.persistence = 0.5;
generator.zoom = 150;
// bitmap info
size_t width = size.width;
size_t height = size.height;
size_t bytesPerPixel = 4;
size_t bitsPerComponent = 8;
size_t bytesPerRow = width * bytesPerPixel;
CGBitmapInfo bitmapInfo = kCGImageAlphaNoneSkipLast | kCGBitmapByteOrder32Big;
// allocate memory for the bitmap
UInt8* imgData = calloc(bytesPerRow, height);
// create RGB color space
CGColorSpaceRef colorSpace = CGColorSpaceCreateDeviceRGB();
// create an RGBA bitmap context where the alpha component is ignored
CGContextRef ctx = CGBitmapContextCreate(imgData, width, height, bitsPerComponent, bytesPerRow, colorSpace, bitmapInfo);
// iterate over pixels
for (int x = 0; x < width; x++) {
for (int y = 0; y < height; y++) {
// the current pixel index
size_t byte = x * bytesPerPixel + y * bytesPerRow;
// get noise data for given x & y
int value = round([generator perlinNoiseX:x y:y z:0 t:0]*255.0);
// limit values (not too sure of the range of values that the method outputs – this may not be needed)
if (value > 255) value = 255;
else if (value < 0) value = 0;
// write values to pixel components
imgData[byte] = value; // R
imgData[byte+1] = value; // G
imgData[byte+2] = value; // B
}
}
// get image
CGImageRef imgRef = CGBitmapContextCreateImage(ctx);
UIImage* img = [UIImage imageWithCGImage:imgRef];
// clean up
CGContextRelease(ctx);
CGColorSpaceRelease(colorSpace);
CGImageRelease(imgRef);
free(imgData);
return img;
}
UIGraphicsBeginImageContext(WithOptions)
自动使图像上下文成为当前上下文——因此您不需要使用它执行 UIGraphicsPushContext
/UIGraphicsPopContext
.
UIGraphicsBeginImageContext
使用 1.0
的比例 – 这意味着您使用的是像素大小,而不是点数。因此,您输出的图像可能不适合 2x 或 3x 显示器。您通常应该使用 UIGraphicsBeginImageContextWithOptions
代替,如果您只是操作,则使用 0.0
(主屏幕比例)或 image.scale
的比例给定的图像(适用于您的 imageWithLumaMaskFromDark
方法)。
CGBitmapContextCreate
还将创建一个比例为 1.0
的上下文。如果您想将图像缩放到与屏幕相同的比例,您只需将输入的宽度和高度乘以屏幕比例即可:
CGFloat scale = [UIScreen mainScreen].scale;
size_t width = size.width*scale;
size_t height = size.height*scale;
然后在创建输出 UIImage
时提供比例:
UIImage* img = [UIImage imageWithCGImage:imgRef scale:scale orientation:UIImageOrientationUp];
如果您想在位图上下文中执行一些 CGContext 绘图调用,您还需要在绘图之前对其进行缩放,以便您可以在点坐标系中工作:
CGContextScaleCTM(ctx, scale, scale);
关于ios - 再次编辑时 Core Graphics 结果图像不起作用,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/37646076/
今天有小伙伴给我留言问到,try{...}catch(){...}是什么意思?它用来干什么? 简单的说 他们是用来捕获异常的 下面我们通过一个例子来详细讲解下
我正在努力提高网站的可访问性,但我不知道如何在页脚中标记社交媒体链接列表。这些链接指向我在 facecook、twitter 等上的帐户。我不想用 role="navigation" 标记这些链接,因
说现在是 6 点,我有一个 Timer 并在 10 点安排了一个 TimerTask。之后,System DateTime 被其他服务(例如 ntp)调整为 9 点钟。我仍然希望我的 TimerTas
就目前而言,这个问题不适合我们的问答形式。我们希望答案得到事实、引用资料或专业知识的支持,但这个问题可能会引发辩论、争论、投票或扩展讨论。如果您觉得这个问题可以改进并可能重新打开,visit the
我就废话不多说了,大家还是直接看代码吧~ ? 1
Maven系列1 1.什么是Maven? Maven是一个项目管理工具,它包含了一个对象模型。一组标准集合,一个依赖管理系统。和用来运行定义在生命周期阶段中插件目标和逻辑。 核心功能 Mav
我是一名优秀的程序员,十分优秀!