gpt4 book ai didi

iphone - 为什么从相机缩小 UIImage 的速度这么慢?

转载 作者:行者123 更新时间:2023-12-03 19:10:03 25 4
gpt4 key购买 nike

如果您按照 this post 中的常规方式进行调整,则调整 UIImagePickerController 返回的相机 UIImage 的大小会花费非常长的时间。 .

[更新:最后一次征集创意!我想我的下一个选择是去问苹果。]

是的,像素很多,但是 iPhone 上的图形硬件完全能够在 1/60 秒内将大量 1024x1024 纹理四边形绘制到屏幕上,因此确实应该有一种方法来调整 2048x1536 的大小图像在不到 1.5 秒的时间内降至 640x480。

那为什么这么慢呢?操作系统从选择器返回的底层图像数据是否未准备好绘制,因此必须以 GPU 无法帮助的某种方式进行混合?

我最好的猜测是它需要从 RGBA 转换为 ABGR 或类似的东西;有人能想出一种方法,可以说服系统快速向我提供数据,即使数据格式错误,并且我稍后会自己处理它吗?

据我所知,iPhone 没有任何专用的“图形”内存,因此不应该存在将图像数据从一个地方移动到另一个地方的问题。

那么,问题是:除了使用 CGBitmapContextCreate 和 CGContextDrawImage 之外,是否还有其他绘图方法可以更充分地利用 GPU?

需要调查的事情:如果我从不是来自图像选择器的相同大小的 UIImage 开始,它是否同样慢?显然不是...

更新:Matt Long 发现,如果您按照手册启用了裁剪功能,则只需 30 毫秒即可调整从 [info objectForKey:@"UIImagePickerControllerEditedImage"] 中的选取器返回的图像大小相机控制。这对于我关心使用 takePicture 以编程方式拍照的情况没有帮助。我看到编辑后的图像是 kCGImageAlphaPremultipliedFirst 但原始图像是 kCGImageAlphaNoneSkipFirst

进一步更新:Jason Crawford 建议使用 CGContextSetInterpolationQuality(context, kCGInterpolationLow),这实际上将时间从大约 1.5 秒缩短到 1.3 秒,但代价是图像质量 - 但这仍然很远从 GPU 应该能够达到的速度来看!

本周结束前的最后一次更新:用户 refulgentis 进行了一些分析,这似乎表明花费了 1.5 秒的时间将捕获的相机图像以 JPEG 格式写入磁盘,然后将其读回.如果属实,那就太奇怪了。

最佳答案

似乎您在这里做出了一些可能正确也可能错误的假设。我的经历与你不同。 This method当调用以下命令将从相机拍摄的照片缩放到原始尺寸的 0.31 时,在我的 3G 上似乎只需要 20-30 毫秒:

CGImageRef scaled = CreateScaledCGImageFromCGImage([image CGImage], 0.31);

(顺便说一句,我通过采用宽度比例 640.0/2048.0 得到 0.31)

我已检查以确保图像与您正在使用的尺寸相同。这是我的 NSLog 输出:

2009-12-07 16:32:12.941 ImagePickerThing[8709:207] Info: {
UIImagePickerControllerCropRect = NSRect: {{0, 0}, {2048, 1536}};
UIImagePickerControllerEditedImage = <UIImage: 0x16c1e0>;
UIImagePickerControllerMediaType = "public.image";
UIImagePickerControllerOriginalImage = <UIImage: 0x184ca0>;
}

我不确定为什么会出现这种差异,而且我无法回答您的问题,因为它与 GPU 有关,但我认为 1.5 秒和 30 毫秒是非常显着的差异。也许可以将该博客文章中的代码与您正在使用的代码进行比较?

最诚挚的问候。

关于iphone - 为什么从相机缩小 UIImage 的速度这么慢?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/1851361/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com