- r - 以节省内存的方式增长 data.frame
- ruby-on-rails - ruby/ruby on rails 内存泄漏检测
- android - 无法解析导入android.support.v7.app
- UNIX 域套接字与共享内存(映射文件)
我在我的应用程序中使用 Core Image 过滤器,在运行 iOS 7 的 iPhone 5 设备上一切正常,但是当我在总内存仅为 512MB 的 iPhone 4s 上测试它时,应用程序崩溃了。
情况是这样,我从相机拍摄了 2 张图像,每张图像的分辨率为 2448x3264。在我的 iPhone 5 中,根据仪器,整个过程在峰值时占用 150MB。
但是,当我尝试在 iPhone 4s 上运行相同的代码时,即使整个内存使用量非常低(大约 8 MB),仪器也会一直给我内存不足的警告。这是下面的屏幕截图。
这是代码,基本上,我从我的应用程序的文档文件夹中加载了两张图片,并连续应用了 2 个过滤器:
CIImage *foreground = [[CIImage alloc] initWithContentsOfURL:foregroundURL];
CIImage *background = [[CIImage alloc] initWithContentsOfURL:backgroundURL];
CIFilter *softLightBlendFilter = [CIFilter filterWithName:@"CISoftLightBlendMode"];
[softLightBlendFilter setDefaults];
[softLightBlendFilter setValue:foreground forKey:kCIInputImageKey];
[softLightBlendFilter setValue:background forKey:kCIInputBackgroundImageKey];
foreground = [softLightBlendFilter outputImage];
background = nil;
softLightBlendFilter = nil;
CIFilter *gammaAdjustFilter = [CIFilter filterWithName:@"CIGammaAdjust"];
[gammaAdjustFilter setDefaults];
[gammaAdjustFilter setValue:foreground forKey:kCIInputImageKey];
[gammaAdjustFilter setValue:[NSNumber numberWithFloat:value] forKey:@"inputPower"];
foreground = [gammaAdjustFilter valueForKey:kCIOutputImageKey];
gammaAdjustFilter = nil;
CIContext *context = [CIContext contextWithOptions:nil];
CGRect extent = [foreground extent];
CGImageRef cgImage = [context createCGImage:foreground fromRect:extent];
UIImage *image = [UIImage imageWithCGImage:cgImage scale:1.0 orientation:imgOrientation];
CFRelease(cgImage);
foreground = nil;
return image;
应用在这一行崩溃:CGImageRef cgImage = [context createCGImage:foreground fromRect:extent];
有没有更节省内存的方法来处理这种情况,或者我在这里做错了什么?
非常感谢!
最佳答案
短版:
虽然在概念上看起来微不足道,但对于相关设备而言,这实际上是一项相当消耗内存的任务。
加长版:
考虑一下:2 张图像 * RGBA 各 8 位 * 2448 * 3264 ~= 64MB。然后 CoreImage 将需要另外约 32MB 用于过滤操作的输出。然后从 CIContext
到 CGImage
可能会再消耗 32MB。我希望 UIImage
副本至少通过使用带有写时复制的 VM 映射图像来共享 CGImage
的内存表示,尽管您可能会为无论如何,双重使用,因为尽管没有消耗“真实”内存,它仍然计入映射的页面。
因此,至少裸,您正在使用 128MB(加上您的应用碰巧使用的任何其他内存)。对于像 4S 这样只有 512MB 开始的设备来说,这是一个相当大的 RAM。 IME,我会说这将是可能的。我希望它至少在某些时候可以工作,但听到它收到内存警告和内存压力终止,我并不感到惊讶。您需要确保 CIContext
和所有输入图像在制作 CGImage
之后,在制作 UIImage
来自 CGImage
。
一般来说,缩小图片尺寸会更容易。
在没有测试的情况下,假设 ARC,我提出以下作为潜在改进:
- (UIImage*)imageWithForeground: (NSURL*)foregroundURL background: (NSURL*)backgroundURL orientation:(UIImageOrientation)orientation value: (float)value
{
CIImage* holder = nil;
@autoreleasepool
{
CIImage *foreground = [[CIImage alloc] initWithContentsOfURL:foregroundURL];
CIImage *background = [[CIImage alloc] initWithContentsOfURL:backgroundURL];
CIFilter *softLightBlendFilter = [CIFilter filterWithName:@"CISoftLightBlendMode"];
[softLightBlendFilter setDefaults];
[softLightBlendFilter setValue:foreground forKey:kCIInputImageKey];
[softLightBlendFilter setValue:background forKey:kCIInputBackgroundImageKey];
holder = [softLightBlendFilter outputImage];
// This probably the peak usage moment -- I expect both source images as well as the output to be in memory.
}
// At this point, I expect the two source images to be flushed, leaving the one output image
@autoreleasepool
{
CIFilter *gammaAdjustFilter = [CIFilter filterWithName:@"CIGammaAdjust"];
[gammaAdjustFilter setDefaults];
[gammaAdjustFilter setValue:holder forKey:kCIInputImageKey];
[gammaAdjustFilter setValue:[NSNumber numberWithFloat:value] forKey:@"inputPower"];
holder = [gammaAdjustFilter outputImage];
// At this point, I expect us to have two images in memory, input and output
}
// Here we should be back down to just one image in memory
CGImageRef cgImage = NULL;
@autoreleasepool
{
CIContext *context = [CIContext contextWithOptions:nil];
CGRect extent = [holder extent];
cgImage = [context createCGImage: holder fromRect:extent];
// One would hope that CG and CI would be sharing memory via VM, but they probably aren't. So we probably have two images in memory at this point too
}
// Now I expect all the CIImages to have gone away, and for us to have one image in memory (just the CGImage)
UIImage *image = [UIImage imageWithCGImage:cgImage scale:1.0 orientation:orientation];
// I expect UIImage to almost certainly be sharing the image data with the CGImageRef via VM, but even if it's not, we only have two images in memory
CFRelease(cgImage);
// Now we should have only one image in memory, the one we're returning.
return image;
}
正如评论中所指出的,高水位线将是采用两张输入图像并创建一张输出图像的操作。无论如何,这总是需要 3 张图像在内存中。要从那里进一步降低高水位线,您必须在部分/平铺中制作图像或将它们缩小到更小的尺寸。
关于ios - 在 iOS 上使用 Core Image 的内存高效方式?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/20761940/
当我调用 png.Decode(imageFile) 时,它返回类型 image.Image。但我找不到将其转换为 image.NRGBA 或 image.RGBA 的记录方式,我可以在其上调用 At
image/jpeg 和 image/png 包有 Decode 和 Encode 函数,可以读取和写入 jpeg 和 png 图像,但 image/gif 包没有 - 只有 Decode 和 Dec
我正在尝试从一系列任意的非调色板图像创建动画 GIF。为了创建调色板图像,我需要以某种方式想出一个调色板。 // RGBA, etc. images from somewhere else var f
我在今年夏天的空闲时间使用 Go 镜像包进行一些练习。 package main import ( "os" "image" "image/png" "image/co
关闭。这个问题需要debugging details .它目前不接受答案。 想改进这个问题?将问题更新为 on-topic对于堆栈溢出。 1年前关闭。 Improve this question 今天
我正在尝试在 TilePane 中列出图像。当我尝试创建图像 new ImageView("address"); 时出现错误,地址如下: "file:D:/Chrysanthemum.jpeg/" 以
我有一个用于为画廊选择图像的表单,我希望允许用户仅选择 jpg、gif 和 png 图像格式。 现在,为了测试,我将图像的扩展名更改为 .bmp,例如“image1.bmp”,当我在输入文件中单击以选
我有创建图像的代码:(m_img 是 javafx.scene.image.Image) Image m_img = new Image("file:" + p_Fil.getAbsoluteFile
假设我有一个这样的 8 位灰度图像: var pixels []byte = ... width := 100 height := 100 如何将其转换为实现 image.Image 的东西? 最佳答
这段代码是我在localhost:8088 URL上的索引/主页的一部分,如果我想将用户发送到url localhost:8088/image/1,我应该写href='image/{{$image->
我正在尝试对图像进行简单的裁剪。这是代码 from PIL.Image import Image def get_image_half(image, half="upper"): if hal
我在这个问题上花了一整天,但在堆栈溢出中没有看到答案! 我试过了但是没用: >> pil_image = Image.frombytes('RGBA', wand_image.size, wa
所以,我是那些以始终使用最新版本的浏览器而自豪的人之一(当然 Internet Explorer 除外 - 我说的不是那个浏览器)。 我遇到了 this awesome CSS3 website详细介
如果 image_tag 无法从 url 加载图像,我想呈现默认图像: 因此,如果 image_tag 无法从 url 加载图像: 然后呈现默认值: 这将生成结果 HTML: 关于image -
我正在创建一个类似横幅的组件,并将图像设置为组件的背景,但我无法让它工作。我尝试了网上发布的不同建议,但没有成功,目前我不确定我的错误是否在 react 代码中,或者是 webpack 没有正确加载文
如何解决 Dart 中的这种歧义错误。 import 'dart:io'; import 'package:flutter/material.dart'; import 'package:camera
Center( child: CachedNetworkImage( imageUrl: "http:/ sosme link he
设置 www.website.com/sds/(index.htm) 以便鼠标悬停在不同位置时显示图像。 出于某种原因,当您将鼠标悬停在蓝色气球上时,图像 2.jpg 和 3.jpg(在蓝色气球上来回
社交网络在共享 URL 时可以很好地从网站中提取标题和描述,但对于图像,仍然需要创建自定义元标记:property="og:image" name="twitter:image" itemprop="
我正在尝试写一个简短的,它将读取一个 PNG 文件,并将一个 channel 与另一个 channel (R,G,B) 交换作为可能的选择。 但是,我无法找到如何从 image.At(x,y) 返回的
我是一名优秀的程序员,十分优秀!