图片从文件渲染到屏幕上的过程
图a通常计算机在显示是CPU与GPU协同合作完成一次渲染.接下来我们了解一下CPU/GPU等在这样一次渲染过程中
CUP阶段
OpenGL阶段
GPU阶段
其iOS平台渲染核心原理的重点主要围绕 前后帧缓存、Vsync信号、CADisplayLink
图片显示到屏幕上是CPU与GPU的协作完成
图片是最占用手机内存的资源,将一张图片从磁盘中加载出来,并最终显示到屏幕上,中间其实经过了一系列复杂的处理过程。
图片加载的工作流程
假设我们使用+imageWithContentsOfFile:方法从磁盘中加载一张图片,这个时候的图片并没有解压缩;
然后将生成的UIImage赋值给UIImageView;
接着一个隐式的CATransaction捕获到了UIImageView图层树的变化;
在主线程的下一个runloop到来时,Core Animation提交了这个隐式的transaction,这个过程可能会对图片进行copy操作,而受图片是否字节对齐等因素的影响,这个copy操作可能会涉及以下部分或全部步骤:
渲染流程
GPU获取获取图片的坐标
将坐标交给顶点着色器(顶点计算)
将图片光栅化(获取图片对应屏幕上的像素点)
片元着色器计算(计算每个像素点的最终显示的颜色值)
从帧缓存区中渲染到屏幕上
我们提到了图片的解压缩是一个非常耗时的 CPU 操作,并且它默认是在主线程中执行的。那么当需要加载的图片比较多时,就会对我们应用的响应性造成严重的影响,尤其是在快速滑动的列表上,这个问题会表现得更加突出
图片解压缩
位图:是一个像素数组,数组中的每个像素就代表着图片中的一个点,应用中常用到的 JPEG 和 PNG 图片就是位图
UIImage*image = [UIImageimageNamed:@"text.png"];
CFDataRef rawData =CGDataProviderCopyData(CGImageGetDataProvider(image.CGImage));
JPEG 还是 PNG 图片,都是一种压缩的位图图形格式。只不过 PNG 图片是无损压缩,并且支持 alpha 通道,而 JPEG 图片则是有损压缩,可以指定 0-100% 的压缩比。值得一提的是,在苹果的 SDK 中专门提供了两个函数用来生成 PNG 和 JPEG 图片:
图b在将磁盘中的图片渲染到屏幕之前,必须先要得到图片的原始像素数据,才能执行后续的绘制操作
图片解压缩原理
既然图片的解压缩不可避免,而我们也不想让它在主线程执行,影响我们应用的响应性,那么是否有比较好的解决方案呢?
我们前面已经提到了,当未解压缩的图片将要渲染到屏幕时,系统会在主线程对图片进行解压缩,而如果图片已经解压缩了,系统就不会再对图片进行解压缩。因此,也就有了业内的解决方案,在子线程提前对图片进行强制解压缩。
而强制解压缩的原理就是对图片进行重新绘制,得到一张新的解压缩后的位图。其中,用到的最核心的函数是 CGBitmapContextCreate :
CG_EXTERN CGContextRef __nullable CGBitmapContextCreate(void* __nullabledata, size_t width, size_t height, size_t bitsPerComponent, size_t bytesPerRow,CGColorSpaceRefcg_nullable space, uint32_t bitmapInfo)CG_AVAILABLE_STARTING(__MAC_10_0, __IPHONE_2_0);
SDWebImage\YYImage开源框架实现
用于解压缩图片的函数sd_decompressedImageWithImage: 存在于 SDWebImageImageIOCoder类中,核心代码如下
网友评论