面试的时候总会遇到以下问题:
1.你在项目中是怎么优化内存的?
2.优化你是从哪几方面着手?
3.列表卡顿的原因可能有哪些?你平时是怎么优化的?
4.遇到tableview卡顿吗?会造成卡顿的原因大致有哪些?
一、CPU和GPU
在屏幕成像的过程中,CPU和GPU起着至关重要的作用。
CPU(中央处理器)
对象的创建和销毁,对象属性的调整、布局计算、文本的计算和排版、图片格式转码和解码、图像的绘制(Core Graphics)
GPU(图形处理器)
纹理的渲染(OpenGL)
那CPU和GPU是怎么协作呢?
一个app的展示会包含很多内容,诸如,label,imageview,button等等。这些控件的位置,大小,颜色则都是由CPU来计算,计算完成后CPU会将这些数据提交给GPU来进行渲染,只有经过GPU的渲染才能显示在屏幕上。GPU做的操作则是:将收到的数据转成屏幕能显示的数据格式,所以要进行渲染的操作。渲染的操作是直接放在帧缓存(缓存区)。然后视频控制器从缓存区 读取的数据显示在屏幕上。就完成了一个显示的操作。
在iOS中是双缓存机制,有前帧缓存、后帧缓存
二、屏幕成像原理
在屏幕显示过程中是有信号发送的。一帧一帧的。
三、卡顿的原因
屏幕内容是怎么显示到屏幕上的?
CPU(红色)——>GPU(蓝色)
1.CPU完成计算,提交给GPU渲染,这是来个垂直同步信号,则会将渲染的内容显示到屏幕上。
2.CPU计算时间正常,CPU渲染时间短,等待VSync
3.CPU计算时间正常或慢,GPU渲染时间长,这时来了VSync,而这一帧还没有渲染完,那么就会出现掉帧现象,屏幕回去显示上一帧的画面。这样就产生了卡顿。
4.而当下一帧VSync出现时,丢掉的那一帧画面才会出现。
掉帧.png
卡顿解决的主要思路:
尽可能减少CPU、GPU资源的消耗。
按照60FPS的刷帧率,每隔16ms就会有一次VSync信号。
四、卡顿优化-CPU
1.尽量用轻量级的对象,比如用不到事件处理的地方,可以考虑使用CAlayer取代UIView;能用基本数据类型,就别用NSNumber类型。
2.不要频繁地跳用UIVIew的相关属性,比如frame、bounds、transform等属性,尽量减少不必要的修改
3.尽量提前计算好布局,在有需要时一次性调整对应的布局,不要多次修改属性
4.Autolayout会比直接设置frame消耗更多的CPU资源
5.图片的size最好刚好跟UIImageView的size保持一致
6.控制一下线程的最大并发数量
7.尽量把耗时的操作放到子线程
8.文本处理(尺寸的计算,绘制)
9.图片处理(解码、绘制)
//图片解码的代码
- (void)image
{
UIImageView *imageView = [[UIImageView alloc] init];
imageView.frame = CGRectMake(100, 100, 100, 56);
[self.view addSubview:imageView];
self.imageView = imageView;
dispatch_async(dispatch_get_global_queue(0, 0), ^{
// 获取CGImage
CGImageRef cgImage = [UIImage imageNamed:@"timg"].CGImage;
// alphaInfo
CGImageAlphaInfo alphaInfo = CGImageGetAlphaInfo(cgImage) & kCGBitmapAlphaInfoMask;
BOOL hasAlpha = NO;
if (alphaInfo == kCGImageAlphaPremultipliedLast ||
alphaInfo == kCGImageAlphaPremultipliedFirst ||
alphaInfo == kCGImageAlphaLast ||
alphaInfo == kCGImageAlphaFirst) {
hasAlpha = YES;
}
// bitmapInfo
CGBitmapInfo bitmapInfo = kCGBitmapByteOrder32Host;
bitmapInfo |= hasAlpha ? kCGImageAlphaPremultipliedFirst : kCGImageAlphaNoneSkipFirst;
// size
size_t width = CGImageGetWidth(cgImage);
size_t height = CGImageGetHeight(cgImage);
// context
CGContextRef context = CGBitmapContextCreate(NULL, width, height, 8, 0, CGColorSpaceCreateDeviceRGB(), bitmapInfo);
// draw
CGContextDrawImage(context, CGRectMake(0, 0, width, height), cgImage);
// get CGImage
cgImage = CGBitmapContextCreateImage(context);
// into UIImage
UIImage *newImage = [UIImage imageWithCGImage:cgImage];
// release
CGContextRelease(context);
CGImageRelease(cgImage);
// back to the main thread
dispatch_async(dispatch_get_main_queue(), ^{
self.imageView.image = newImage;
});
});
}
五、卡顿优化-GPU
1.尽量减少视图数量和层次
2.GPU能处理的最大纹理尺寸是4096x4096,一旦超过这个尺寸,就会占用CPU资源进行处理,所以纹理尽量不要超过这个尺寸
3.尽量避免段时间内大量图片的显示,尽可能将多张图片合成一张图片显示
4.减少透明的视图(alpha<1),不透明的就设置opaque为yes
5.尽量避免出现离屏渲染
在OpenGL中,GPU有2种渲染方式:
1.On-SCreen Rendering:当前屏幕渲染,在当前用语显示的屏幕缓冲区进行渲染操作。
2.Off-Screen Rendring: 离屏渲染,在当前屏幕缓冲区以外新开辟一个缓冲区进行渲染操作。
离屏渲染消耗性能的原因:
1.需要创建新的缓冲区;
2离屏渲染的整个过程,需要多次切换上下文环境,先是从当前屏幕切换到离屏;等到离屏渲染结束以后,将离屏缓冲区的渲染结果显示到屏幕上,又需要将上下文环境从离屏切换到当前屏幕
哪些操作会出发离屏渲染?
1.光栅化,layer.shouldRasterize = YES
2.遮罩,layer.mask
3.圆角,同时设置layer.maskToBounds = Yes,Layer.cornerRadis 大于0
考虑通过CoreGraphics绘制裁剪圆角,或者美工提供圆角图片
4.阴影,layer.shadowXXX
如果设置了layer.shadowPath就不会产生离屏渲染
六.卡顿检测
平时所说的“卡顿”主要是因为在主线程执行了耗时的操作。
可以添加Observer到主线程RunLoop中,通过监听RunLoop状态切换的耗时,以达到监听卡顿的目的
推荐一个库:LXDAppFluecyMonitor
网友评论