gpt4 book ai didi

cocoa - CIFilter/CIKernel 中的最大图像大小?

转载 作者:行者123 更新时间:2023-12-03 16:19:04 24 4
gpt4 key购买 nike

有谁知道自定义 CIFilter 的图像大小有什么限制?我创建了一个过滤器,当图像高达 2 兆像素时,它可以按预期执行,但当图像更大时,会产生非常奇怪的结果。我已经在我的 cocoa 应用程序和 quartz Composer 中测试了这一点。我开发的滤波器是一种几何类型的失真滤波器,(我认为)需要一个覆盖整个输入图像的 ROI 和 DOD。我创建了这个过滤器来重新映射全景图像,因此我希望它可以处理非常大(50-100 兆像素)的图像。

作为一个简单的测试,考虑以下 CIFilter(可以在 Quartz Composer 中使用),它简单地平移图像,以便图像的左下角平移到中心(我知道这可以通过仿射来完成)变换,但我需要在更复杂的过滤器中执行这样的操作)。当图像为 2000x1000 时,此过滤器按预期工作,但当输入图像为 4000x2000 像素时,会产生奇怪的结果。问题是要么平移没有将角精确地移动到中心,要么图像输出完全消失。我注意到大图像上更复杂的过滤器存在其他奇怪的问题,但我认为这个简单的过滤器说明了我的问题并且可以在 Quartz Composer 中复制。

kernel vec4 equidistantProjection(sampler src, __color color)
{
vec2 coordinate = samplerCoord(src);
vec2 result;
vec4 outputImage;

result.x = (coordinate.x - samplerSize(src).x / 2.0);
result.y = (coordinate.y - samplerSize(src).y / 2.0);

outputImage = unpremultiply(sample(src,result));

return premultiply(outputImage);
}

使用工作坐标而不是采样器坐标时会出现相同的奇怪行为,但在这种情况下,尺寸为 2000x1000 的图像会出现错误,但对于尺寸为 1000x500 的图像则工作正常

kernel vec4 equidistantProjection(sampler src, __color color, vec2 destinationDimensions)
{
vec2 coordinate = destCoord();
vec2 result;
vec4 outputImage;

result.x = (coordinate.x - destinationDimensions.x / 2.0);
result.y = (coordinate.y - destinationDimensions.y / 2.0);

outputImage = unpremultiply(sample(src,result));
outputImage = unpremultiply(sample(src,samplerTransform(src, result)));

return premultiply(outputImage);
}

作为引用,我已将以下内容添加到过滤器的 - (CIImage *)outputImage 方法的 Objective-C 部分,以将 DOD 设置为整个输入图像。

- (CIImage *)outputImage
{
CISampler *src = [CISampler samplerWithImage: inputImage];



NSArray * outputExtent = [NSArray arrayWithObjects:
[NSNumber numberWithInt:0],
[NSNumber numberWithInt:0],
[NSNumber numberWithFloat:[inputImage extent].size.width],
[NSNumber numberWithFloat:[inputImage extent].size.height],nil];


return [self apply: filterKernel, src, inputColor, zoom, viewBounds, inputOrigin,
kCIApplyOptionDefinition, [src definition], kCIApplyOptionExtent, outputExtent, nil];

}

此外,我还添加了以下方法来设置我在 - (id)init 方法中调用的 ROI:[filterKernel setROISelector:@selector(regionOf:destRect:userInfo: )];

- (CGRect) regionOf:(int)samplerIndex destRect:(CGRect)r userInfo:obj
{

return r;
}

对此问题的任何帮助或建议将不胜感激。我确信 CIFilters 可以处理更大的图像,因为我已经使用 CIBumpDistortion 处理大于 50 兆像素的图像,所以我一定做错了什么。有什么想法吗?

最佳答案

在使用 CoreImage 时,我发现它可以将大图像切割成多个部分。例如,在您的情况下,4k x 2k 图像可以分割为 4 2k x 1k 图像并单独渲染。不幸的是,这种优化技巧会影响 samplerCoord,并且一些依赖于坐标的过滤器在大图像上无法正常工作。

我的解决方案是使用destCoord而不是samplerCoord。当然,您应该记住,图像可以以非零原点和destCoord 进行渲染。我编写了自己的过滤器,因此我能够将整个范围作为 vec4 参数传递。

示例:尝试使用 CIFilter 生成图像,如下所示:

float gray = (samplerCoord.x / samplerSize.width) * (samplerCoord.y / samplerSize.height);

这个输出应该在 (0,0) 处给出黑色,在 (1,1) 处给出白色,对吗?然而,对于大图像,您会看到很少的四边形,而不是单个渐变。发生这种情况是由于 CoreImage 引擎优化了渲染,我还没有找到传递它的方法,但你可以这样重写内核:

float gray = ((destCoord.x - rect.x) / rect.size) * ((destCoord.y - rect.y) / rect.height)

其中rect是您必须通过的采样器的真实范围。我使用 [inputImage extent] 来达到此目的,但它取决于过滤器,并且在您的情况下可以是其他东西。

希望这个解释能够清楚地说明。顺便说一句,看起来系统内核即使在处理大图像时也能正常工作,所以您应该只在自定义内核中担心这个技巧。

关于cocoa - CIFilter/CIKernel 中的最大图像大小?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/3874833/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com