来源:https://www.jianshu.com/p/c2c7f2c79e53
图片优化
常见的图片格式
JPEG是目前最常见的图片格式,它诞生于1992年,是一个很古老的格式。它只支持有损压缩,其压缩算法可以精确控制压缩比,以图像质量换得存储空间。由于它太过常见,以至于许多移动设备的 CPU 都支持针对它的硬编码与硬解码。
PNG诞生在 1995 年,比 JPEG 晚几年。它本身的设计目的是替代 GIF 格式,所以它与 GIF 有更多相似的地方。PNG 只支持无损压缩,所以它的压缩比是有上限的。相对于 JPEG 和 GIF 来说,它最大的优势在于支持完整的透明通道。
GIF诞生于 1987 年,随着初代互联网流行开来。它有很多缺点,比如通常情况下只支持 256 种颜色、透明通道只有 1 bit、文件压缩比不高。它唯一的优势就是支持多帧动画,凭借这个特性,它得以从 Windows 1.0 时代流行至今,而且仍然大受欢迎。
格式优点缺点用途
??
除了以上面常见的格式,也有一些新型的格式:
APNG是 Mozilla 在 2008 年发布的一种图片格式,旨在替换掉画质低劣的 GIF 动画。它实际上只是相当于 PNG 格式的一个扩展,所以 Mozilla 一直想把它合并到 PNG 标准里面去。然而PNG 开发组并没有接受 APNG 这个扩展,而是一直在推进它自己的 MNG 动图格式。MNG 格式过于复杂以至于并没有什么系统或浏览器支持,而 APNG 格式由于简单容易实现,目前已经渐渐流行开来。Mozilla 自己的 Firefox 首先支持了 APNG,随后苹果的 Safari 也开始有了支持, Chrome 目前也已经尝试开始支持 ,可以说未来前景很好。
APNG和GIF对比:https://aotu.io/notes/2016/11/07/apng/
WebP是 Google 在 2010 年发布的图片格式,希望以更高的压缩比替代 JPEG。它用 VP8 视频帧内编码作为其算法基础,取得了不错的压缩效果。它支持有损和无损压缩、支持完整的透明通道、也支持多帧动画,并且没有版权问题,是一种非常理想的图片格式(美中不足的是,WebP格式图像的编码时间“比JPEG格式图像长8倍)。借由 Google 在网络世界的影响力,WebP 在几年的时间内已经得到了广泛的应用。看看你手机里的 App:微博、微信、QQ、淘宝、网易新闻等等,每个 App 里都有 WebP 的身影。Facebook 则更进一步,用 WebP 来显示聊天界面的贴纸动画。
关于以上几种图片格式在移动端的解码和性能对比参见:https://blog.ibireme.com/2015/11/02/mobile_image_benchmark/(移动端图片格式调研)
iOS中图片加载过程和性能瓶颈
如上文所说,大部分格式的图片都是被压缩的,都需要被首先解码为bitmap(未压缩的位图),然后才能渲染到UI上。
UIImageView显示图片,也有类似的过程。实际上,一张图片从在文件系统中,到被显示到UIImageView,会经历以下几个步骤:
假设我们使用+imageWithContentsOfFile:方法从磁盘中加载一张图片,这个时候的图片并没有解压缩;
然后将生成的UIImage赋值给UIImageView;
接着一个隐式的CATransaction捕获到了UIImageView图层树的变化;
在主线程的下一个run loop到来时,Core Animation提交了这个隐式的transaction,这个过程可能会对图片进行copy操作,而受图片是否字节对齐等因素的影响,这个 copy 操作可能会涉及以下部分或全部步骤:
分配内存缓冲区用于管理文件 IO 和解压缩操作;
将文件数据从磁盘读到内存中;
将压缩的图片数据解码成未压缩的位图形式,这是一个非常耗时的 CPU 操作;
最后Core Animation使用未压缩的位图数据渲染UIImageView的图层。
在上面的步骤中,我们提到了图片的解压缩是一个非常耗时的 CPU 操作,并且它默认是在主线程中执行的。那么当需要加载的图片比较多时,就会对我们应用的响应性造成严重的影响,尤其是在快速滑动的列表上,这个问题会表现得更加突出。这就是 UIImageView 的一个性能瓶颈。
实际上,当我们调用[UIImage imageNamed:@"xxx"]后,UIImage 中存储的是未解码的图片,而调用[UIImageView setImage:image]后,会在主线程进行图片的解码工作并且将图片显示到 UI 上,这时候,UIImage 中存储的是解码后的 bitmap 数据。
为什么需要解压缩
既然图片的解压缩需要消耗大量的 CPU 时间,那么我们为什么还要对图片进行解压缩呢?是否可以不经过解压缩,而直接将图片显示到屏幕上呢?答案是否定的。要想弄明白这个问题,我们首先需要知道什么是位图
bitmap:bitmap 又叫位图文件,它是一种非压缩的图片格式,所以体积非常大。所谓的非压缩,就是图片每个像素的原始信息在存储器中依次排列,一张典型的1920*1080像素的 bitmap 图片,每个像素由 RGBA 四个字节表示颜色,那么它的体积就是 1920 * 1080 * 4 = 1012.5kb。
由于 bitmap 简单顺序存储图片的像素信息,它可以不经过解码就直接被渲染到 UI 上。实际上,其它格式的图片都需要先被首先解码为 bitmap,然后才能渲染到界面上。
不管是 JPEG 还是 PNG 图片,都是一种压缩的位图图形格式。只不过 PNG 图片是无损压缩,并且支持 alpha 通道,而 JPEG 图片则是有损压缩,可以指定 0-100% 的压缩比。值得一提的是,在苹果的 SDK 中专门提供了两个函数用来生成 PNG 和 JPEG 图片:
// return image as PNG. May return nil if image has no CGImageRef or invalid bitmap formatUIKIT_EXTERN NSData * __nullable UIImagePNGRepresentation(UIImage * __nonnull image);// return image as JPEG. May return nil if image has no CGImageRef or invalid bitmap format. compression is 0(most)..1(least)? ????????????????????????UIKIT_EXTERN NSData * __nullable UIImageJPEGRepresentation(UIImage * __nonnull image, CGFloat compressionQuality);
因此,在将磁盘中的图片渲染到屏幕之前,必须先要得到图片的原始像素数据,才能执行后续的绘制操作,这就是为什么需要对图片解压缩的原因。
图片解压缩的过程其实就是将图片的二进制数据转换成像素数据的过程
图片的编码和解码
iOS 底层是用 ImageIO.framework 实现的图片编解码。
目前 iOS 原生支持的格式有:JPEG、JPEG2000、PNG、GIF、BMP、ICO、TIFF、PICT,自 iOS 8.0 起,ImageIO 又加入了 APNG、SVG、RAW 格式的支持。在上层,开发者可以直接调用 ImageIO 对上面这些图片格式进行编码和解码。对于动图来说,开发者可以解码动画 GIF 和 APNG、可以编码动画 GIF。
注意:图片所占内存的大小与图片的尺寸有关,而不是图片的文件大小
色彩空间和像素格式
计算图片解码后每行需要的比特数,由两个参数相乘得到:每行的像素数width,和存储一个像素需要的比特数4
这里的4,其实是由每张图片的像素格式和像素组合来决定的,下表是苹果平台支持的像素组合方式
?
表中的bpp,表示每个像素需要多少位;bpc表示颜色的每个分量,需要多少位。具体的解释方式,可以看下面这张图:
?
我们解码后的图片,默认采用 kCGImageAlphaNoneSkipLast RGB 的像素组合,没有 alpha 通道,每个像素32位4个字节,前三个字节代表红绿蓝三个通道, 但是有时候,如果我们只是绘制一个蒙版,是不需要这么字节表示的比如 Alpha 8 format,每个像素只需要占用 1 个字节,这之间的差距就造成了内存浪费。
UIGraphicsImageRenderer 和 UIGraphicsBeginImageContextWithOptions
当我们为了离屏渲染,要创建 image buffer 时,我们通常会使用 UIGraphicsBeginImageContext,但是最好还是用 UIGraphicsImageRenderer,它的性能更好、更高效,并且支持广色域。这里有一个中间地带,如果你主要将图像渲染到图形图像渲染器(graphic image render)中,该图像可能使用超出 SRGB 色域的色彩空间值,但实际上并不需要更大的元素来存储这些信息。所以 UIImage 有一个可以用来获取预构建的 UIGraphicsImageRendererFormat 对象的 image renderer format 属性,该对象用于重新渲染图像时进行最优化存储。
所以苹果官方建议使用 UIGraphicsImageRenderer,这个方法是从 iOS 10 引入,在 iOS 12 上会自动选择最佳的图像格式,可以减少很多内存。系统可以根据图片分辨率选择创建解码图片的格式,如选用SRGB format 格式,每个像素占用 4 字节,而Alpha 8 format,每像素只占用 1 字节,可以减少大量的解码内存占用。
扩展阅读色彩空间与像素格式:https://www.cnblogs.com/leisure_chn/p/10290575.html
imageWithContentsOfFile 和 imageNamed 对比
imgeNamed:
用这个方法加载图片分为两种情况:系统缓存有这个图片,直接从缓存中取得,系统缓存没有这个图片,通过传入的文件名对整个工程进行遍历 (在application bundle的顶层文件夹寻找名字的图象 ), 如果如果找到对应的图片,iOS 系统首先要做的是将这个图片放到系统缓存中去,以备下次使用的时候直接从系统缓存中取, 接下来重复第一步,即直接从缓存中取,由于系统会缓存图片,所以如果要加载的这个图片的文件量很多,文件大小很大,内存不足,内存泄露,甚至是程序的崩溃都是很容易发生的事.
imageWithContentsOfFile:
用这个方法只有一种情况,那就是仅仅加载图片, 图像数据不会被缓存. 因此在加载较大图片的时候, 以及图片使用情况很少的时候可以使用这两个方法 , 降低内存消耗.
加载本地图片,要比从Assets Catalogs耗时要长,具体见Assets Catalogs 与 I/O 优化:https://juejin.cn/post/6844903825396989959
图片内存优化
到此我们可知,图片经过解压之后,在内存中实际是根据图片的分辨率和图片渲染所用的像素格式而定的
一、对不常用的大图片,使用imageWithContentsOfFile代替imageNamed方法,避免内存缓存(相应的使用imageNamed要避免载入大量的图片造成内存暴增)
二、使用 ImageIO 方法,对大图片进行缩放,减少图片解码占用内存大小。
UIImage 在设置和调整大小的时候,需要将原始图像加压到内存中,然后对内部坐标空间做一系列转换,整个过程会消耗很多资源。我们可以使用 ImageIO,它可以直接读取图像大小和元数据信息,不会带来额外的内存开销。
三、绘制图片,用 UIGraphicsImageRenderer 代替 UIGraphicsBeginImageContextWithOptions,自动管理颜色格式
四、超大图片处理
使用苹果的CATiledLayer去加载。原理是分片渲染,滑动时通过指定目标位置,通过映射原图指定位置的部分图片数据解码渲染。这里不再累述,有兴趣的小伙伴可以自行了解下官方API。
五、网络图片加载方式:使用SDwebImage等三方库
解决UIImageView的性能瓶颈
我们在讨论UIImageView的性能瓶颈中发现,问题在于主线程进行图片解压缩占用了大量的CPU,解决问题的办法就是:在子线程提前对图片进行强制解压缩
而强制解压缩的原理就是对图片进行重新绘制,得到一张新的解压缩后的位图。其中,用到的最核心的函数是 CGBitmapContextCreate :
如果UIImage中存储的是已经解码后的数据,速度就会快很多,所以优化的思路就是:在子线程中对图片原始数据进行强制解码,再将解码后的图片抛回主线程继续使用,从而提高主线程的响应速度。
我们需要使用的工具是Core Graphics框架的CGBitmapContextCreate方法和相关的绘制函数。总体的步骤是:
1、创建一个指定大小和格式的bitmap context。
2、将未解码图片写入到这个context中,这个过程包含了强制解码。
3、从这个context中创建新的UIImage对象,返回。
SDWebImage 实现
通过以上的步骤,我们成功在子线程中对图片进行了强制转码,回调给主线程使用,从而大大提高了图片的渲染效率。这也是现在主流 App 和大量三方库的最佳实践。
SDWebImage配置优化,减小CG-raster-data内存占用
在使用SDWebImage的时候,会默认保存图片解码后的内存,以便提高页面的渲染速度,但是这会导致内存的急速增加,所以可以在不影响体验的情况下,选择机型和系统,进行优化,避免大量的内存占用,引起OOM问题。
eg:PHAsset类型:
· PHAssetMediaTypeAudio
· PHAssetMediaTypeVideo
· PHAssetMediaTypeImage(image + gif)
· PHAssetMediaSubtypePhotoLive
1、获取image data
+ (PHImageRequestID)requestOriginalImageDataForAsset:(PHAsset?*)asset?progressHandler:(void?(^?_Nullable)(double,?NSError?*,?BOOL?*,?NSDictionary?*))progressHandler?completion:(void?(^)(NSData?*,?NSDictionary?*))completion
{
?PHImageRequestOptions?*option = [[PHImageRequestOptions?alloc]init];
?option.networkAccessAllowed?=?YES;
?option.resizeMode?=?PHImageRequestOptionsResizeModeFast;
?option.progressHandler?= ^(double?progress,?NSError?*error,?BOOL?*stop,?NSDictionary?*info) {
?dispatch_async(dispatch_get_main_queue(), ^{
?if?(progressHandler) {
?progressHandler(progress, error, stop, info);
?}
?});
?};
?PHImageRequestID?requstID = [[PHImageManager?defaultManager]?requestImageDataForAsset:asset?options:option?resultHandler:^(NSData?*?_Nullable?imageData,?NSString?*?_Nullable?dataUTI,?UIImageOrientation?orientation,?NSDictionary?*?_Nullable?info) {
?BOOL?downloadFinined = (![[info?objectForKey:PHImageCancelledKey]?boolValue] && ![info?objectForKey:PHImageErrorKey]);
?if?(downloadFinined && imageData) {
?[self transformToGifImageWithData:imageData];//图片异步解码
?if?(completion) completion(imageData, info);
?}
?}];
?return?requstID;
}
2、获取asset image
?+ (PHImageRequestID)requestImageForAsset:(PHAsset*)assetsize:(CGSize)sizeresizeMode:(PHImageRequestOptionsResizeMode)resizeModeprogressHandler:(void(^_Nullable)(doubleprogress,NSError*error,BOOL*stop,NSDictionary*info))progressHandlercompletion:(void(^)(UIImage*,NSDictionary*))completion
{
? ? if(asset ==nil) { completion(nil,nil);returnPHInvalidImageRequestID; }
? ? PHImageRequestOptions *option = [[PHImageRequestOptions alloc] init];
? ? /**
?? ? resizeMode:对请求的图像怎样缩放。有三种选择:None,默认加载方式;Fast,尽快地提供接近或稍微大于要求的尺寸;Exact,精准提供要求的尺寸。
?? ? deliveryMode:图像质量。有三种值:Opportunistic,在速度与质量中均衡;HighQualityFormat,不管花费多长时间,提供高质量图像;FastFormat,以最快速度提供好的质量。
?? ? 这个属性只有在 synchronous 为 true 时有效。
?? ? */
? ? option.resizeMode= resizeMode;//控制照片尺寸
? ? //? ? option.deliveryMode = PHImageRequestOptionsDeliveryModeOpportunistic;//控制照片质量
? ? option.networkAccessAllowed = YES;
? ? option.progressHandler= ^(doubleprogress,NSError*error,BOOL*stop,NSDictionary*info) {
? ? ? ? dispatch_async(dispatch_get_main_queue(), ^{
? ? ? ? ? ? if(progressHandler) {
? ? ? ? ? ? ? ? progressHandler(progress, error, stop, info);
? ? ? ? ? ? }
? ? ? ? });
? ? };
? ? /*
?? ? info字典提供请求状态信息:
?? ? PHImageResultIsInCloudKey:图像是否必须从iCloud请求
?? ? PHImageResultIsDegradedKey:当前UIImage是否是低质量的,这个可以实现给用户先显示一个预览图
?? ? PHImageResultRequestIDKey和PHImageCancelledKey:请求ID以及请求是否已经被取消
?? ? PHImageErrorKey:如果没有图像,字典内的错误信息
?? ? */
? ? return [[PHCachingImageManager defaultManager] requestImageForAsset:asset targetSize:size contentMode:PHImageContentModeAspectFill options:option resultHandler:^(UIImage * _Nullable image, NSDictionary * _Nullable info) {
? ? ? ? BOOLdownloadFinined = ![[infoobjectForKey:PHImageCancelledKey]boolValue] && ![infoobjectForKey:PHImageErrorKey];
? ? ? ? //不要该判断,即如果该图片在iCloud上时候,会先显示一张模糊的预览图,待加载完毕后会显示高清图
? ? ? ? // && ![[info objectForKey:PHImageResultIsDegradedKey] boolValue]
? ? ? ? if(downloadFinined && completion) {
?????????UIImage*decodeImage = [self decodedImageWithImage:image];
? ? ? ? ? ? completion(decodeImage, info);
? ? ? ? }
? ? }];
}
- (CGColorSpaceRef)colorSpaceForImageRef:(CGImageRef)imageRef {
? ? // current
? ? CGColorSpaceModelimageColorSpaceModel =CGColorSpaceGetModel(CGImageGetColorSpace(imageRef));
? ? CGColorSpaceRefcolorspaceRef =CGImageGetColorSpace(imageRef);
? ? BOOLunsupportedColorSpace = (imageColorSpaceModel ==kCGColorSpaceModelUnknown||
? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? imageColorSpaceModel ==kCGColorSpaceModelMonochrome||
? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? imageColorSpaceModel ==kCGColorSpaceModelCMYK||
? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? imageColorSpaceModel ==kCGColorSpaceModelIndexed);
? ? if(unsupportedColorSpace) {
? ? ? ? colorspaceRef =CGColorSpaceCreateDeviceRGB();
? ? ? ? CFAutorelease(colorspaceRef);
? ? }
? ? returncolorspaceRef;
}
- (UIImage *)decodedImageWithImage:(UIImage *)image {
? ? if (image == nil) { // Prevent "CGBitmapContextCreateImage: invalid context 0x0" error
? ? ? ? returnnil;
? ? }
? ? @autoreleasepool{
? ? ? ? // do not decode animated images
? ? ? ? //1. 从 UIImage 对象中获取 CGImageRef 的引用。这两个结构是苹果在不同层级上对图片的表示方式,UIImage 属于 UIKit,是 UI 层级图片的抽象,用于图片的展示;CGImageRef 是 QuartzCore 中的一个结构体指针,用C语言编写,用来创建像素位图,可以通过操作存储的像素位来编辑图片。这两种结构可以方便的互转:
? ? ? ? CGImageRefimageRef = image.CGImage;
? ? ? ? // 2. 调用 UIImage 的 +colorSpaceForImageRef: 方法来获取原始图片的颜色空间参数。
? ? ? ? CGColorSpaceRefcolorspaceRef = [ZLPhotoManagercolorSpaceForImageRef:imageRef];
? ? ? ? size_twidth =CGImageGetWidth(imageRef);
? ? ? ? size_theight =CGImageGetHeight(imageRef);
? ? ? ? // 3. 计算图片解码后每行需要的比特数,由两个参数相乘得到:每行的像素数 width,和存储一个像素需要的比特数4(这里的4,其实是由每张图片的像素格式和像素组合来决定的)
? ? ? ? size_tbytesPerRow =4* width;
? ? ? ? size_tkBitsPerComponent =8;
? ? ? ? // 4. 最关键的函数:调用 CGBitmapContextCreate() 方法,生成一个空白的图片绘制上下文,我们传入了上述的一些参数,指定了图片的大小、颜色空间、像素排列等等属性。
? ? ? ? CGContextRefcontext =CGBitmapContextCreate(NULL,
?? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? width,
?? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? height,
?? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? kBitsPerComponent,
?? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? bytesPerRow,
?? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? colorspaceRef,
?? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? kCGBitmapByteOrderDefault|kCGImageAlphaNoneSkipLast);
? ? ? ? if(context ==NULL) {
? ? ? ? ? ? returnimage;
? ? ? ? }
? ? ? ? // 5. 调用 CGContextDrawImage() 方法,将未解码的 imageRef 指针内容,写入到我们创建的上下文中,这个步骤,完成了隐式的解码工作。
? ? ? ? CGContextDrawImage(context,CGRectMake(0,0, width, height), imageRef);
? ? ? ? // 6. 从 context 上下文中创建一个新的 imageRef,这是解码后的图片了。
? ? ? ? CGImageRefnewImageRef =CGBitmapContextCreateImage(context);
? ? ? ? // 7. 从 imageRef 生成供UI层使用的 UIImage 对象,同时指定图片的 scale 和 orientation 两个参数。
? ? ? ? UIImage*newImage = [UIImageimageWithCGImage:newImageRef
? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? scale:image.scale
? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? orientation:image.imageOrientation];
? ? ? ? CGContextRelease(context);
? ? ? ? CGImageRelease(newImageRef);
? ? ? ? returnnewImage;
? ? }
}