美文网首页iOS性能优化iOS Developer
iOS视图成像理论及性能优化

iOS视图成像理论及性能优化

作者: Jacky_Yang | 来源:发表于2017-04-27 09:26 被阅读97次

    iOS视图成像理论及优化

    CRT屏幕成像

    图像成像原理

    CRT(阴极射线管)显示器电子枪,电子枪从屏幕的左上角的第一行开始,从左至右逐行扫描,第一行扫描完后再从第二行的最左端开始至第二行的最右端,一直到扫描完整个屏幕后再从屏幕的左上角开始,这时就完成了一次对屏幕的刷新。

    CRT 的电子枪按照上面方式,从上到下一行行扫描,扫描完成后显示器就呈现一帧画面,随后电子枪回到初始位置继续下一次扫描。为了把显示器的显示过程和系统的视频控制器进行同步,显示器(或者其他硬件)会用硬件时钟产生一系列的定时信号。当电子枪换到新的一行,准备进行扫描时,显示器会发出一个水平同步信号(horizonal synchronization),简称 HSync;而当一帧画面绘制完成后,电子枪回复到原位,准备画下一帧前,显示器会发出一个垂直同步信号(vertical synchronization),简称 VSync。显示器通常以固定频率进行刷新,这个刷新率就是 VSync 信号产生的频率。

    水平信号及垂直信号

    计算机处理成像

    计算机系统中 CPU、GPU、显示器是协同工作的。CPU 计算好显示内容提交到 GPU,GPU 渲染完成后将渲染结果放入帧缓冲区,随后视频控制器会按照垂直同步信号逐行读取帧缓冲区的数据,经过可能的数模转换传递给显示器显示。

    • 所谓帧缓存,是指渲染的帧保存在的位置。使用内置帧缓存,调用文件会更快,减少内存使用。
    • 在最简单的情况下,帧缓冲区只有一个,这时帧缓冲区的读取和刷新都都会有比较大的效率问题。
    • 为了解决效率问题,显示系统通常会引入两个缓冲区,即双缓冲机制。
    • 在这种情况下,GPU 会预先渲染好一帧放入一个缓冲区内,让视频控制器读取,当下一帧渲染好后,GPU 会直接把视频控制器的指针指向第二个缓冲器。如此一来效率会有很大的提升。
    垂直同步

    双缓冲虽然能解决效率问题,但会引入一个新的问题。当视频控制器还未读取完成时,即屏幕内容刚显示一半时,GPU 将新的一帧内容提交到帧缓冲区并把两个缓冲区进行交换后,视频控制器就会把新的一帧数据的下半段显示到屏幕上,造成画面撕裂现象,如下图:

    针对这个问题,GPU通常会做垂直同步,GPU 会等待显示器的垂直同步信号发出后,才进行新的一帧渲染和缓冲区更新。这样能解决画面撕裂现象,也增加了画面流畅度,但需要消费更多的计算资源,也会带来部分延迟。现在iOS 设备会始终使用双缓存,并开启垂直同步

    界面卡顿的原因

    在 VSync 信号到来后,系统图形服务会通过 CADisplayLink 等机制通知 App,App 主线程开始在 CPU 中计算显示内容,比如视图的创建、布局计算、图片解码、文本绘制等。随后 CPU 会将计算好的内容提交到 GPU 去,由 GPU 进行变换、合成、渲染。随后 GPU 会把渲染结果提交到帧缓冲区去,等待下一次 VSync 信号到来时显示到屏幕上。由于垂直同步的机制,如果在一个 VSync 时间内,CPU 或者 GPU 没有完成内容提交,则那一帧就会被丢弃,等待下一次机会再显示,而这时显示屏会保留之前的内容不变。这就是界面卡顿的原因。

    那么目前主流的移动设备是什么情况呢?从网上查到的资料可以知道,iOS 设备会始终使用双缓存,并开启垂直同步。而安卓设备直到 4.1 版本,Google 才开始引入这种机制,目前安卓系统是三缓存+垂直同步

    屏幕渲染(GPU)

    GPU屏幕渲染有以下两种方式:

    1.On-Screen Rendering

    意为当前屏幕渲染,指的是GPU的渲染操作是在当前用于显示的屏幕缓冲区中进行。

    2.Off-Screen Rendering

    意为离屏渲染,指的是GPU在当前屏幕缓冲区以外新开辟一个缓冲区进行渲染操作。

    离屏渲染为何卡?

    Offscreen Render为什么卡顿?因为Offscreen Render需要更多的渲染通道,离屏渲染的整个过程,需要多次切换上下文环境,先是从当前屏幕(On-Screen)切换到离屏(Off-Screen),等到离屏渲染结束以后,将离屏缓冲区的渲染结果显示到屏幕上又需要将上下文环境从离屏切换到当前屏幕,不同的渲染通道间切换需要耗费一定的时间,这个时间内GPU会闲置,当通道达到一定数量,对性能也会有较大的影响

    离屏渲染需慎重

    混合图层做动画时,GPU 会为每一帧(1/60s)重复合成所有的图层。当使用离屏渲染时,GPU 第一次会混合所有图层到一个基于新的纹理的位图缓存上,然后使用这个纹理来绘制到屏幕上。当这些图层一起移动的时候,GPU 便可以复用这个位图缓存,并且只需要做很少的工作。如果那些图层改变了,GPU 需要重新创建位图缓存。所以使用时,还是需要慎重。

    离屏渲染触发条件

    如果您在开发中不是专门做图像处理的,请避免使用离屏渲染。shouldRasterize(光栅化)、masks(遮罩)、shadows(阴影)、edge antialiasing(抗锯齿)、group opacity(不透明)都会触发离屏绘制。具体如下:

      1. drawRect
      1. layer.shouldRasterize = true;
      1. 有mask或者是阴影(layer.masksToBounds, layer.shadow*);
    • 3.1) shouldRasterize(光栅化)
    • 3.2) masks(遮罩)
    • 3.3) shadows(阴影)
    • 3.4) edge antialiasing(抗锯齿)
    • 3.5) group opacity(不透明)
      1. Text(UILabel, CATextLayer, Core Text)...
    离屏渲染何时用?

    什么时候用离屏渲染呢? 当你的渲染树非常复杂(纹理及组合逻辑) 你可以强制离屏渲染缓存那些图层,然后可以用缓存作为合成的结果放到屏幕上,通过设置 shouldRasterize 为 YES 来触发这个行为

    在触发离屏绘制的同时,会将光栅化后的内容缓存起来,如果对应的layer及其sublayers没有发生改变,在下一帧的时候可以直接复用,光栅化相当于是把GPU的操作转到CPU上了,生成位图缓存,直接读取复用,这将在很大程度上提升渲染性能。但是rasterized layer(栅格化图层)的空间是有限的,iOS大概有屏幕大小两倍的空间来存储 rasterized layer或是屏幕外缓冲区。

    self.layer.shouldRasterize = YES;  
     
    self.layer.rasterizationScale = [UIScreen mainScreen].scale;
    
    特殊的离屏渲染

    特殊的“离屏渲染”方式:CPU渲染

    Core Graphics 的绘制 API 会触发离屏渲染,但不是那种 GPU 的离屏渲染。使用 Core Graphics 绘制 API 是在 CPU 上执行,触发的是 CPU 版本的离屏渲染。如果我们重写了drawRect方法(使用CoreGraphics来实现的绘制,或使用CoreText[其实就是使用CoreGraphics]绘制)进行操作,就涉及到了CPU渲染。整个渲染过程由CPU在App内同步地完成,渲染得到的bitmap最后再交由GPU用于显示,基本上使用时只是调用了一些向位图缓存内写入一些二进制信息的方法而已

    总结

    • RoundedCorner 在仅指定cornerRadius时不会触发离屏渲染,仅适用于特殊情况:contents为 nil 或者contents不会遮挡背景色圆角;
    • Shawdow 可以通过指定路径来取消离屏渲染;
    • Mask 无法取消离屏渲染;
    任何时候优先考虑避免触发离屏渲染,无法避免时优化方案有两种:
    • Rasterization:适用于静态内容的视图,也就是内部结构和内容不发生变化的视图,对上面的所有效果而言,在实现成本以及性能上最均衡的。即使是动态变化的视图,开启 Rasterization 后能够有效降低 GPU 的负荷,不过在动态视图里是否启用还是看 Instruments 的数据。
    • 规避离屏渲染,用其他手法来模拟效果,混合图层是个性能最好、耗能最少的通用优化方案,尤其对于 rounded corer 和 mask。

    iOS离屏渲染优化

    比如:

    这篇文章讲了圆角的绘制对比:前台重绘(消耗cup) 后台重绘(消耗cup) 系统圆角(消耗gpu)

    方案对比:

    1.UI直接画成圆角图片

    2.添加一个部分透明的视图,只对圆角部分进行遮挡

    CPU 资源消耗原因和解决方案

    对象创建
    • 尽量推迟对象创建的时间,并把对象的创建分散到多个任务中去。尽管这实现起来比较麻烦,并且带来的优势并不多,但如果有能力做,还是要尽量尝试一下。如果对象可以复用,并且复用的代价比释放、创建新对象要小,那么这类对象应当尽量放到一个缓存池里复用。
    • 在性能敏感的界面里,Storyboard 并不是一个好的技术选择。
    对象调整
    • 当视图层次调整时,UIView、CALayer 之间会出现很多方法调用与通知,所以在优化性能时,应该尽量避免调整视图层次、添加和移除视图。
    对象销毁

    对象的销毁虽然消耗资源不多,但累积起来也是不容忽视的。通常当容器类持有大量对象时,其销毁时的资源消耗就非常明显。同样的,如果对象可以放到后台线程去释放,那就挪到后台线程去。这里有个小 Tip:把对象捕获到 block 中,然后扔到后台队列去随便发送个消息以避免编译器警告,就可以让对象在后台线程销毁了。

    NSArray *tmp = self.array;
    self.array = nil;
    dispatch_async(queue, ^{
        [tmp class];
    });
    
    布局计算

    对这些属性的调整非常消耗资源,所以尽量提前计算好布局,在需要时一次性调整好对应属性,而不要多次、频繁的计算和调整这些属性。

    文本计算
    • 如果一个界面中包含大量文本(比如微博微信朋友圈等),文本的宽高计算会占用很大一部分资源,并且不可避免。如果你对文本显示没有特殊要求,可以参考下 UILabel 内部的实现方式:用 [NSAttributedString boundingRectWithSize:options:context:] 来计算文本宽高,用 -[NSAttributedString drawWithRect:options:context:] 来绘制文本。尽管这两个方法性能不错,但仍旧需要放到后台线程进行以避免阻塞主线程。
    • 如果你用 CoreText 绘制文本,那就可以先生成 CoreText 排版对象,然后自己计算了,并且 CoreText 对象还能保留以供稍后绘制使用。
    文本渲染
    • 屏幕上能看到的所有文本内容控件,包括 UIWebView,在底层都是通过 CoreText 排版、绘制为 Bitmap 显示的。常见的文本控件 (UILabel、UITextView 等),其排版和绘制都是在主线程进行的,当显示大量文本时,CPU 的压力会非常大。对此解决方案只有一个,那就是自定义文本控件,用 TextKit 或最底层的 CoreText 对文本异步绘制。尽管这实现起来非常麻烦,但其带来的优势也非常大,CoreText 对象创建好后,能直接获取文本的宽高等信息,避免了多次计算(调整 UILabel 大小时算一遍、UILabel 绘制时内部再算一遍);CoreText 对象占用内存较少,可以缓存下来以备稍后多次渲染。
    图片的解码
    • 当你用 UIImage 或 CGImageSource 的那几个方法创建图片时,图片数据并不会立刻解码。图片设置到 UIImageView 或者 CALayer.contents 中去,并且 CALayer 被提交到 GPU 前,CGImage 中的数据才会得到解码。这一步是发生在主线程的,并且不可避免。如果想要绕开这个机制,常见的做法是在后台线程先把图片绘制到 CGBitmapContext 中,然后从 Bitmap 直接创建图片。目前常见的网络图片库都自带这个功能。
    图像的绘制
    • 图像的绘制通常是指用那些以 CG 开头的方法把图像绘制到画布中,然后从画布创建图片并显示这样一个过程。这个最常见的地方就是 [UIView drawRect:] 里面了。由于 CoreGraphic 方法通常都是线程安全的,所以图像的绘制可以很容易的放到后台线程进行。一个简单异步绘制的过程大致如下(实际情况会比这个复杂得多,但原理基本一致):

      - (void)display {
          dispatch_async(backgroundQueue, ^{
              CGContextRef ctx = CGBitmapContextCreate(...);
              // draw in context...
              CGImageRef img = CGBitmapContextCreateImage(ctx);
              CFRelease(ctx);
              dispatch_async(mainQueue, ^{
                  layer.contents = img;
              });
          });
      }
      

    GPU 资源消耗原因和解决方案

    相对于 CPU 来说,GPU 能干的事情比较单一:接收提交的纹理(Texture)和顶点描述(三角形),应用变换(transform)、混合并渲染,然后输出到屏幕上。通常你所能看到的内容,主要也就是纹理(图片)和形状(三角模拟的矢量图形)两类。

    纹理的渲染

    所有的 Bitmap,包括图片、文本、栅格化的内容,最终都要由内存提交到显存,绑定为 GPU Texture。不论是提交到显存的过程,还是 GPU 调整和渲染 Texture 的过程,都要消耗不少 GPU 资源。当在较短时间显示大量图片时(比如 TableView 存在非常多的图片并且快速滑动时),CPU 占用率很低,GPU 占用非常高,界面仍然会掉帧。避免这种情况的方法只能是尽量减少在短时间内大量图片的显示,尽可能将多张图片合成为一张进行显示。

    视图的混合 (Composing)

    当多个视图(或者说 CALayer)重叠在一起显示时,GPU 会首先把他们混合到一起。如果视图结构过于复杂,混合的过程也会消耗很多 GPU 资源。为了减轻这种情况的 GPU 消耗,应用应当尽量减少视图数量和层次,并在不透明的视图里标明 opaque 属性以避免无用的 Alpha 通道合成。当然,这也可以用上面的方法,把多个视图预先渲染为一张图片来显示。

    图形的生成。

    CALayer 的 border、圆角、阴影、遮罩(mask),CASharpLayer 的矢量图形显示,通常会触发离屏渲染(offscreen rendering),而离屏渲染通常发生在 GPU 中。当一个列表视图中出现大量圆角的 CALayer,并且快速滑动时,可以观察到 GPU 资源已经占满,而 CPU 资源消耗很少。这时界面仍然能正常滑动,但平均帧数会降到很低。为了避免这种情况,可以尝试开启 CALayer.shouldRasterize 属性,但这会把原本离屏渲染的操作转嫁到 CPU 上去。对于只需要圆角的某些场合,也可以用一张已经绘制好的圆角图片覆盖到原本视图上面来模拟相同的视觉效果。最彻底的解决办法,就是把需要显示的图形在后台线程绘制为图片,避免使用圆角、阴影、遮罩等属性。

    AsyncDisplayKit

    微博 Demo 性能优化技巧

    预排版

    参考文章:
    iOS保持界面流畅的技巧

    iOS成像理论及优化

    相关文章

      网友评论

      本文标题:iOS视图成像理论及性能优化

      本文链接:https://www.haomeiwen.com/subject/dzerottx.html