关于性能优化之卡顿产生原因,就不得不先理解屏幕成像原理
一、CPU 、GPU
- 在屏幕成像过程中,CPU和GPU起着至关重要的作用
- CPU (中央处理器) 对象的创建和销毁、对象属性的调整、布局计算、文本的计算和排版、图片的格式转码及解码、图像的绘制(Core Graphics)
-
GPU(图形处理器)纹理的渲染
CPU、GPU通过总线连接 通过CPU进行绘图,将位图经由总线在合适的时机给GPU,GPU做位图的纹理渲染和合成,再放到帧缓冲区域(Frame Buffer)中, 由视频控制器根据VSync信号在帧缓冲区域中提取屏幕显示内容
在iOS中是双缓冲机制,有前帧缓存、后帧缓存
二、屏幕成像原理
每一次VSync信号就代表一帧这样,我们就能大概知道为什么会出现卡顿现象了
三、卡顿产生的原因
- 按照60FPS的刷帧率,每隔16.7ms就会有一次VSync信号,即16.7ms刷新一次页面
- CPU、GPU处理时间过长,导致VSync信号到来之前CPU和GPU无法完成下一帧画面的合成,就会使用上一帧的画面,等待下一帧的到来
四、卡顿的优化
从上面已经了解了造成卡顿的原因,即CPU和GPU的处理
- CPU层面优化
- 尽量用轻量级的对象,比如用不到事件处理的地方,可以考虑使用CALayer取代UIView
- 不要频繁地调用UIView的相关属性,比如frame、bounds、transform等属性,尽量减少不必要的修改
- 尽量提前计算好布局,在有需要时一次性调整对应的属性,不要多次修改属性
- Autolayout会比直接设置frame消耗更多的CPU资源
- 图片的size最好刚好跟UIImageView的size保持一致
- 控制一下线程的最大并发数量
- 尽量把耗时的操作放到子线程 如:文本处理(尺寸计算、绘制)、图片处理(编码、解码)
- GPU层面优化
- 尽量避免短时间内大量图片的显示,尽可能将多张图片合成一张进行显示
- GPU能处理的最大纹理尺寸是4096x4096,一旦超过这个尺寸,就会占用CPU资源进行处理
- 尽量减少视图数量和层次
- 减少透明的视图(alpha<1),不透明的就设置opaque为YES
- 尽量避免出现离屏渲染
五、离屏渲染
上面GPU优化中提到了离屏渲染,介绍一下其为何会消耗性能及如何避免的方式
(1)什么是离屏渲染?
在OpenGL中,GPU有2种渲染方式
- On-Screen Rendering:当前屏幕渲染,在当前用于显示的屏幕缓冲区进行渲染操作
- Off-Screen Rendering:离屏渲染,在当前屏幕缓冲区以外新开辟一个缓冲区进行渲染操作
(2)离屏渲染为何会消耗性能?
- 需要创建新的缓冲区
- 离屏渲染的整个过程,需要多次切换上下文环境,先是从当前屏幕(On-Screen)切换到离屏(Off-Screen);等到离屏渲染结束以后,将离屏缓冲区的渲染结果显示到屏幕上,又需要将上下文环境从离屏切换到当前屏幕
(3)哪些操作会触发离屏渲染?
- 光栅化
layer.shouldRasterize = YES
- 遮罩
layer.mask
- 圆角 同时设置
layer.masksToBounds = YES、layer.cornerRadius > 0
解决办法:通过CoreGraphics绘制裁剪圆角,或者叫美工提供圆角图片
- 阴影
layer.shadowXXX
如果设置了layer.shadowPath就不会产生离屏渲染
六、卡顿检测
平时所说的“卡顿”主要是因为在主线程执行了比较耗时的操作,因此添加Observer到主线程RunLoop中,通过监听RunLoop状态切换的耗时,以达到监控卡顿的目的
PS : 需要进一步了解:图片编解码、RunLoop Observe监听状态
网友评论