gpt4 book ai didi

ios - 使用 UIImagePickerController 减少内存使用

转载 作者:可可西里 更新时间:2023-11-01 05:21:44 24 4
gpt4 key购买 nike

在我的应用中,用户可以使用 UIImagePickerController 拍摄多张图片,然后这些图片会在 View 中一张一张地显示。

我在内存管理方面遇到了一些麻烦。随着当今手机上的摄像头百万像素迅速增加,从 UIImagePickerController 返回的 UIImages 是内存大户。在我的 iPhone 4S 上,UIImages 大约是 5MB;我很难想象它们在更新的和 future 的模型上会是什么样子。

我的一个 friend 说处理 UIImages 的最好方法是立即将它们保存到我应用程序的文档目录中的 JPEG 文件,并尽快发布原始 UIImage。所以这就是我一直在努力做的。不幸的是,即使在将 UIImage 保存为 JPEG 并且在我的代码中没有留下对它的引用之后,它也没有被垃圾收集。

这是我的代码的相关部分。我正在使用 ARC。

// Entry point: UIImagePickerController delegate method
-(void) imagePickerController:(UIImagePickerController *)picker didFinishPickingMediaWithInfo:(NSDictionary *)info {

// Process the image. The method returns a pathname.
NSString* path = [self processImage:[info objectForKey:UIImagePickerControllerOriginalImage]];

// Add the image to the view
[self addImage:path];
}

-(NSString*) processImage:(UIImage*)image {

// Get a file path
NSArray* paths = NSSearchPathForDirectoriesInDomains(NSDocumentDirectory, NSUserDomainMask, YES);
NSString* documentsDirectory = [paths objectAtIndex:0];
NSString* filename = [self makeImageFilename]; // implementation omitted
NSString* imagePath = [documentsDirectory stringByAppendingPathComponent:filename];

// Get the image data (blocking; around 1 second)
NSData* imageData = UIImageJPEGRepresentation(image, 0.1);

// Write the data to a file
[imageData writeToFile:imagePath atomically:YES];

// Upload the image (non-blocking)
[self uploadImage:imageData withFilename:filename];

return imagePath;
}

-(void) uploadImage:(NSData*)imageData withFilename:(NSString*)filename {
// this sends the upload job (implementation omitted) to a thread
// pool, which in this case is managed by PhoneGap
[self.commandDelegate runInBackground:^{
[self doUploadImage:imageData withFilename:filename];
}];
}

-(void) addImage:(NSString*)path {
// implementation omitted: make a UIImageView (set bounds, etc). Save it
// in the variable iv.

iv.image = [UIImage imageWithContentsOfFile:path];
[iv setNeedsDisplay];
NSLog(@"Displaying image named %@", path);
self.imageCount++;
}

请注意 processImage 方法如何获取对 UIImage 的引用,但它仅将其用于一件事:制作该图像的 NSData* 表示。那么,在 processImage 方法完成后,UIImage 应该从内存中释放,对吧?

我可以做些什么来减少我的应用程序的内存使用量?

更新

我现在意识到分配分析器的屏幕截图有助于解释这个问题。

Allocations of app

最佳答案

你的 processImage方法不是你的问题。

我们可以通过将其移植到Apple's PhotoPicker demo app 来测试您的图像保存代码。

方便的是,Apple 的示例项目与您的示例项目非常相似,具有在定时器上重复拍摄照片的方法。在示例中,图像没有保存到文件系统,而是累积在内存中。它带有此警告:

/*
Start the timer to take a photo every 1.5 seconds.

CAUTION: for the purpose of this sample, we will continue to take pictures indefinitely.<br/>
Be aware we will run out of memory quickly. You must decide the proper threshold number of photos allowed to take from the camera.<br/>
One solution to avoid memory constraints is to save each taken photo to disk rather than keeping all of them in memory.<br/>
In low memory situations sometimes our "didReceiveMemoryWarning" method will be called in which case we can recover some memory and keep the app running.<br/>
*/

将您的方法添加到 Apple 的代码中,我们可以解决这个问题。

imagePicker 委托(delegate)方法如下所示:

- (void)imagePickerController:(UIImagePickerController *)picker 
didFinishPickingMediaWithInfo:(NSDictionary *)info
{
UIImage *image = [info valueForKey:UIImagePickerControllerOriginalImage];

[self.capturedImages removeAllObjects]; // (1)
[self.imagePaths addObject:[self processImage:image]]; //(2)

[self.capturedImages addObject:image];

if ([self.cameraTimer isValid])
{
return;
}
[self finishAndUpdate]; //(3)
}

(1) - 我们的补充,在每次图像捕获事件时刷新实时内存
(2) - 我们的添加,将图像保存到文件系统并构建文件系统路径列表。
(3) - 对于我们的测试,我们使用 cameraTimer 拍摄重复图像,所以 finishAndUpdate没有被调用。

我用过你的processImage:按原样使用以下行的方法:
[self uploadImage:imageData withFilename:filename];
注释掉了。

我还添加了一个小的 makeImageFileName 方法:

static int imageName = 0;

-(NSString*)makeImageFilename {
imageName++;
return [NSString stringWithFormat:@"%d.jpg",imageName];
}

这些是我对 Apple 代码所做的唯一添加。

这里是苹果原代码的内存占用(没有(1)和(2)的cameraTimer运行)

enter image description here

拍摄约 40 张图像后,内存攀升至约 140MB

这是添加后的内存占用量(cameraTimer 运行 (1) 和 (2))

enter image description here

文件保存方法正在解决内存问题:内存是平坦的,每次图像捕获大约有 30MB 的峰值。

这些测试是在 iPhone5S 上运行的。未压缩的图像为 3264 x 2448 像素,应该约为 24mB(24 位 RGB)。 Jpeg 压缩(文件系统)大小在 250kB(0.1 质量,根据您的代码)到 1-2mB(0.7 质量)到 ~6mB(1.0 质量)之间。

在对您的问题的评论中,您建议重新加载的图像将从该压缩中受益。事实并非如此:当图像被加载到内存中时,它必须首先被解压缩。它的内存占用大约等于像素 x 颜色 x 每种颜色的位深度 - 无论图像在磁盘上的存储方式如何。作为jrturton已指出,这至少表明您应该避免以比显示所需的分辨率更高的分辨率加载图像。假设您有一个 832 x 640 的全屏(视网膜)imageView,如果您的用户无法放大,那么您正在浪费内存加载比该图像更大的图像。这是 ~1.6mB 的实时内存占用,比您的 24mMB 原始内存有很大改进(但这是您的主要问题的题外话)。

作为processImage似乎不是你内存问题的原因,你应该看看其他的可能性:

1/你没有内存问题。您如何分析应用程序?
2/addImage 之一或 uploadImage正在保留内存。试着依次评论每一个,以确定是哪一个。
3/问题在别处(由 PhoneGap 管理?)

至于那些内存峰值,它们是由图像到数据的 jpeg 压缩线引起的:
NSData* imageData = UIImageJPEGRepresentation(image, 0.1) ;

在底层,就是ImageIO,使用ImagePickerController 时可能不可避免。看这里:Most memory efficient way to save a photo to disk on iPhone?如果你切换到 AVFoundation,你可以获得未转换的 NSData 图像,这样你就可以避免尖峰。

关于ios - 使用 UIImagePickerController 减少内存使用,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/20868091/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com