一.图片显示流程
IOS中一张图片如何显示在屏幕上的呢?大致流程如下:
流程
图片显示通常是CPU与GPU协同合作完成的:
- CPU: 计算视图frame,图片解码,将数据通过数据总线传给GPU
- GPU: 纹理混合,顶点计算,像素点填充染色,数据传到帧缓存区。
- 时钟信号: 垂直同步信号V-Sync/水平同步信号H-Sync 将帧缓存区渲染到屏幕。
- ios设备双缓冲机制
可见图片显示到屏幕需要CPU与GPU的协作完成
二.图片加载的工作流程
- 我们使用 + imageWithContentsOfFile:方法从磁盘加载一张图片的时候,这时候获得UIImage并没有解压缩.
- 将UIImage赋值给UIImageview;
- 这时候隐式的CATransaction会捕获到UIImageview图层树的变化;
- 等待一个runloop循环 会提交这次事务,可能会进行copy操作,受内存对齐等因素的影响,这个copy操作可能涉及以下部分或者全部步骤:
- 分配内存缓存区用于管理文件IO和解压缩操作
- 将文件数据从磁盘读到内存中
- 将压缩的图片数据解码成未压缩的位图形式,这是一个非常耗时的CPU操作,CALayer通过这个未压缩的位图渲染UIImageview的图层。
- CPU计算好图片的Frame,对图片解压后,交给GPU作渲染.
渲染流程
GPU 获取图片的坐标,将坐标交给顶点着色器(顶点计算),然后讲图片光栅化(形成像素点),接着片元着色器开始着色各个像素点,最后将这些计算后的数据交给FrameBuffer 渲染到屏幕上.
为什么要解压图片
将压缩的图片数据解码成未压缩的位图形式,这是一个非常耗时的CPU操作,可否跳过这个步骤直接渲染图片呢?那肯定是不行的。
无论什么图片的格式JPEG,PNG,GIF等,都是一种压缩的位图图形格式。在磁盘中的图片渲染到屏幕之前,必须先得到图片的原始像素数据,才能进行图片处理。
如何优化
竟然图片的解压缩不可避免,放在主线程又影响性能,那我们可以将其放入子线程进行处理。如果图片解压过了,系统就不会再对其进行解压。对图片进行强制解压缩的原理就是对图片进行重新绘制,得到一张新的解压后的位图,核心函数就是CGBitMapContextCreate
CG_EXTERN CGContextRef __nullable CGBitmapContextCreate(void * __nullable data,
size_t width, size_t height, size_t bitsPerComponent, size_t bytesPerRow,
CGColorSpaceRef cg_nullable space, uint32_t bitmapInfo)
CG_AVAILABLE_STARTING(10.0, 2.0);
使用过程中我们可以开启子线程进行解压:
dispatch_async(dispatch_get_global_queue(DISPATCH_QUEUE_PRIORITY_DEFAULT, 0), ^{
UIImage *image = [UIImage imageWithContentsOfFile:[[NSBundle mainBundle] pathForResource:@"testImage" ofType:@"jpeg"]];
dispatch_async(dispatch_get_main_queue(), ^{
CGBitmapContextCreate(....);
});
});
超大图的处理
图片的像素过大(目前主流 iOS 设备最高支持 4096 x 4096 纹理尺寸),在显示的时候 CPU 和 GPU 都会消耗额外的资源来处理图片。
可以使用如下方法压缩到目标大小 (targetSize):
UIGraphicsBeginImageContext(CGSize(...));
[originalImage drawInRect:CGRectMake(0, 0, youWantWidth, youWantWidthHeight)];
UIImage *targetImage = UIGraphicsGetImageFromCurrentImageContext();
UIGraphicsEndImageContext();
当然也可以使用YYImage 和SDWebImage框架来处理实现异步解压。
网友评论