图片所占内存大小,与图片的宽高有关
我们平时看到的png、jpg、webp这些图片格式,其实都是图片压缩格式。通过对应的算法来优化了大小以节省网络传输与本地保存所需的资源。
但是当我们加载图片到内存中将要显示出来的时候是不能使用压缩格式,这样就不能显示图片了。
计算机依赖每一个像素点中的数据来显示图片。
例如iOS中的UIImange的每个像素点是由red+green+blue 三原色在加上alpha透明度组成的。
三原色每一个的范围在0 ~ 255所以需要1个字节来存储一个值的大小。
那么一个像素点的颜色就需要3个字节
再加上需要alpha的大小,alpha的范围是0~100 也是以1个字节来存储的。
所以一个像素点就需要4个字节来存储
疑问:
像素一定是RGB表示?必须是占4个字节?
像素会不会其他格式表示,从而造成所占字节数不同?
这样算来,一个image的size为100100,每个像素点占4个字节,那么
该图片的内存占用为:1001004byte = 40000btye = 40001024KB
取一个图片,其大小是750x844
- (void)testImageSize
{
UIImageView *imageView = [[UIImageView alloc] init];
imageView.frame = CGRectMake(100, 100, 100, 100);
imageView.image = [UIImage imageNamed:@"yz_life_share_gift_top_bg_image_2"];
[self.view addSubview:imageView];
//获取
//The width, in pixels, of the specified bitmap image (or image mask).
//指定位图图像(或图像掩码)的宽度(以像素为单位)。
CGFloat imageWidth = CGImageGetWidth(imageView.image.CGImage);
CGFloat imageHeight = CGImageGetHeight(imageView.image.CGImage);
CGFloat imageMemorySize = imageHeight * imageWidth * 4 /1024/1024;
NSLog(@"%f, %f, %f", imageWidth, imageHeight, imageMemorySize);
//750.000000, 844.000000, 2.414703
//或者
//The number of bytes used in memory for each row of the specified bitmap image (or image mask).
//指定位图图像(或图像掩码)的每一行在内存中使用的字节数。
CGFloat bytesPerRow = CGImageGetBytesPerRow(imageView.image.CGImage);
CGFloat imageMemorySize2 = imageHeight * bytesPerRow/1024/1024;
NSLog(@"%f, %f, %f", bytesPerRow, imageHeight, imageMemorySize2);
//3000.000000, 844.000000, 2.414703
}
也就是,一张11KB大小的图片,在内存中占用的内存大小是2.414703M
还是蛮大的
首先,宽高,是指的图片本身的宽高,而不是mageView被设置的size
而图片的大小,可以用 单位为厘米 去测量,也可以用 单位为像素 去测量
比如100cm * 100cm大小的图片,其换算成像素为单位,并不是100px * 100px
本文章里,所讲的图片的大小,其实是以像素为单位的图片的大小
这就要从图片格式来说,我们通常用的图片格式如:png和jpeg等,这些格式的图片都是压缩的位图格式,不能直接渲染展示在屏幕上,所以就需要在渲染到屏幕之前,需要将图片解压缩,得到图片的原始像素数据,过程如下:
即:Data Buffer、Image Buffer、Frame Buffer
Data Buffer 是存储在内存中的原始数据,图像可以使用不同的格式保存,如 jpg、png。是Image 的文件内容。
Image Buffer 是图像在内存中的存在方式,用于存放图像具体素点信息。Image Buffer 的大小和图像的大小成正比。
Frame Buffer 和 Image Buffer 内容相同,不过其存储在 vRAM(video RAM)中,而 Image Buffer 存储在 RAM 中。
解码就是从 Data Buffer 生成 Image Buffer 的过程。Image Buffer 会占用带宽上传到 GPU 成为 Frame Buffer,最后GPU负责使用 Frame Buffer用于更新显示区域。
使用[UIImage imageNamed:@""];
这种方式加载图片的话,图片会缓存在内存里面,不被释放
如果遇到频率使用低的图片、图片大的图片,建议使用[UIImage imageWithContentsOfFile:nil];
这种方式加载图片
使用imageName:加载图片
使用imageWithContentOfFile:加载图片
[UIImage imageNamed:]加载图片,与imageWithContentOfFile:加载图片有什么区别?
使用UIGraphicsImageRenderer的API
如果ImageView的本身就是固定的200x200,加载800x800的图片会有什么问题?
答案:载入800x800的图片用到200x200的控件上是很浪费内存。需要消耗的内存大小800x800x4bit。
解决方案:在使用前把图片调整到需要的大小
因此,我们使用UIGraphicsImageRenderer,将图片大小调整为用户自己所需要的大小,以减少内存的使用
UIImage *image = [UIImage imageNamed:@"yz_life_share_gift_top_bg_image_2"];
//调用,或者直接传image.size.width
image = [self resiImage:image size:CGSizeMake(100, 100)];
imageView.image = image;
//方法
- (UIImage*)resiImage:(UIImage *)image size:(CGSize)size{
UIGraphicsImageRenderer *re = [[UIGraphicsImageRenderer alloc]initWithSize:size];
return [re imageWithActions:^(UIGraphicsImageRendererContext * _Nonnull rendererContext) {
[image drawInRect:CGRectMake(0, 0, size.width, size.height)];
}];
}
iOS Image 内存优化
UIGraphicsImageRenderer图片渲染优化