屏幕显示图像的原理
- CPU(中央处理器)
对象的创建和销毁,对象属性的调整、布局计算、文本的计算和排版、图片格式转码和解码、图像的绘制(Core Graphics)
- GPU(图形处理器)
纹理的渲染(OpenGL)
- FrameBuffer(帧缓存)

-
1、CPU计算控件的位置、大小
-
2、计算完成后CPU会将这些数据提交给GPU来进行渲染
-
3、GPU将收到的数据转成屏幕能显示的数据格式,缓存到在FrameBuffer
-
4、然后视频控制器从FrameBuffer读取的数据显示在显示器上
卡顿产生的原因和解决方案****

由于垂直同步的机制,如果在一个 VSync 时间内,CPU 或者 GPU 没有完成内容提交,则那一帧就会被丢弃,等待下一次机会再显示,而这时显示屏会保留之前的内容不变。这就是界面卡顿的原因。
从上面的图中可以看到,CPU 和 GPU 不论哪个阻碍了显示流程,都会造成掉帧现象。所以开发时,也需要分别对 CPU 和 GPU 压力进行评估和优化。
卡顿优化-CPU
-
1、尽量用轻量级的对象,比如用不到事件处理的地方,可以考虑使用CAlayer取代UIView
-
2、不要频繁地跳用UIVIew的相关属性,比如frame、bounds、transform等属性,尽量减少不必要的修改
-
3、尽量提前计算好布局,在有需要时一次性调整对应的布局,不要多次修改属性
-
4、Autolayout会比直接设置frame消耗更多的CPU资源
-
5、图片的size最好刚好跟UIImageView的size保持一致
-
6、控制一下线程的最大并发数量
-
7、尽量把耗时的操作放到子线程
-
8、文本处理(尺寸的计算,绘制)
-
9、图片处理(解码、绘制)
卡顿优化-GPU
-
1、尽量减少视图数量和层次
-
2、GPU能处理的最大纹理尺寸是4096x4096,一旦超过这个尺寸,就会占用CPU资源进行处理,所以纹理尽量不要超过这个尺寸
-
3、尽量避免短时间内大量图片的显示,尽可能将多张图片合成一张图片显示
-
4、减少透明的视图(alpha<1),不透明的就设置opaque为yes
-
5、尽量避免出现离屏渲染
离屏渲染
指的是在GPU在当前屏幕缓冲区以外开辟一个缓冲区进行渲染操作
导致产生离屏渲染的原因:
-
shouldRasterize(光栅化)
-
shadows(阴影)
-
edge antialiasing(抗锯齿)
-
group opacity(不透明)
-
圆角(当和maskToBounds一起使用时才会触发)
-
渐变
可通过 Instruments 的 Core Animation 检测离屏渲染。
TableView 调优
-
提前计算好cell的高度,缓存在相应的数据源模型中,减少CPU的计算时间
-
尽可能的降低Storyboard、Xib等使用度
-
异步绘制
-
减少层级
-
Cell中的view尽可能不要使用透明
-
避免离屏渲染
网友评论