美文网首页OpenGL
iOS开发快速了解OpenGL基本概念

iOS开发快速了解OpenGL基本概念

作者: 爱看书de图图 | 来源:发表于2020-06-19 15:25 被阅读0次

      作为一个一个iOS底层开发小白,一直以来对于底层原理,都是一知半解的状态,希望从此时记录自己学习底层知识的过程,也希望对其他开发中可以有一个好的帮助,因为自己看其他人的博客时候,大多数作者都是基于自己认知的前提下,记录自己的知识,在我看来对于入门的人来说,非常晦涩难懂,所以希望自己的文章,可以更加帮助其他人循序渐进的了解更多关于iOS的知识。文章也会尽量一步步的探索更多业务开发之外的东西,对于任何方面的技能,都可以友善的帮助后来的开发者。文章中有任何错误,不恰当的地方,欢迎随时指正,多多交流才可以共同进步。想要学习 OpenGL首先需要了解OpenGL/OpenGL ES/Metal三者之间的联系:

    OpenGL(Open Graphics Library)OpenGL是一个跨平台的编程程序接口,它将计算机的资源抽象成了一个个OpenGL对象,对这些资源的操作抽象为一个个的OpenGL指令。
    OpenGL ES(OpenGL for Embedded Systems)OpenGL ES是OpenGL三维图形API的子集,针对手机、PDA和游戏主机等嵌入式设备而设计,去除了许多不必要的和性能较低的API接口。
    Metal:为了发展自己的渲染技术,提升自己的渲染性能,Apple公司在2014年推出了自己的渲染技术平台Metal,该技术能够为3D图像提高10倍的渲染性能。

      通俗来讲就是,Apple作为大厂,肯定要发展自己的底层渲染技术,所以推出了Metal,在推出Metal之前,苹果的底层渲染也是基于OpenGL/OpenGL ES的,在iOS12.0以后,苹果摒弃了OpenGL的相关API,使用Metal作为自己的渲染技术,但是OpenGL相关的API依然可以使用,因为在Metal之前,苹果提供了非常丰富的关于使用OpenGL相关API,类似于苹果推出了swift,但是OC依然是自己主流语言一样。了解了相关的背景,我们接下来要知道图形API究竟是用来解决什么样的问题存在的。

    A. 比如说在游戏开发中,对于游戏场景/游戏人物的渲染
    B. 比如在音频开发中,对于视频解码后的数据渲染
    C. 比如在地图引擎,对于地图上的数据渲染
    D. 比如在动画中,实现动画的绘制
    E. 比如在视频处理中,对于视频加入滤镜效果等

      OpenGL/OpenGL ES/Metal在任何项目中解决问题的本质就是利用GPU芯片来高效的渲染图形图像。图形APIiOS开发者唯一接近GPU的方式。想要了解OpenGL就要先学习关于OpenGL的专业名词,了解了这些,才可以对以后的学习,有更加深刻的认识。

    OpenGL专业名词解析

    上下文

    • 在应⽤程序调⽤任何OpenGL的指令之前,需要安排⾸先创建⼀个OpenGL的上下⽂。这个上下⽂是⼀个⾮常庞⼤的状态机,保存了OpenGL中的各种状态,这也是OpenGL指令执⾏的基础。
    OpenGL的函数不管在哪个语⾔中,都是类似C语⾔⼀样的⾯向过程的函数,本质上都是对OpenGL上下⽂这个庞⼤的状态机中的某个状态或者对象进⾏操作,当然你得⾸先把这个对象设置为当前对象。因此,通过对OpenGL指令的封装,是可以将OpenGL的相关调用封装成为一个面向对象的图形API
    • 由于OpenGL上下⽂是⼀个巨⼤的状态机,切换上下⽂往往会产⽣较⼤的开销,但是不同的绘制模块,可能需要使⽤完全独⽴的状态管理。因此,可以在应⽤程序中分别创建多个不同的上下⽂,在不同线程中使⽤不同的上下⽂,上下⽂之间共享纹理、缓冲区等资源。这样的⽅案,会⽐反复切换上下⽂,或者⼤量修改渲染状态,更加合理⾼效的.

    状态机

    • 状态机是理论上的⼀种机器.这个⾮常难以理解.所以我们把这个状态机这么理解.状态机描述了⼀对象在其⽣命周期内所经历的各种状态,状态间的转变,发⽣转变的动因,条件及转变中所执⾏的活动。或者说,状态机是⼀种⾏为,说明对象在其⽣命周期中响应事件所经历的状态序列以及对那些状态事件的响应。因此具有以下特点:
    a有记忆功能,能记住其当前的状态
    b 可以接收输⼊,根据输⼊的内容和⾃⼰的原先状态,修改⾃⼰当前状态,并且可以有对应输出
    c 当进⼊特殊状态(停机状态)的时候,变不再接收输⼊,停⽌⼯作;

      状态机在OpenGL可以这么理解,OpenGL可以记录自己的状态(当前所使用的颜色、是否开启了混合功能等),可以接输入(当调用OpenGL函数的时候,实际上可以看成OpenGL在接受我们的输入),如我们调用glColor3f,则OpenGL接收到这个输入后会修改自己的“当前颜色”这个状态,OpenGL可以进入停止状态,不再接收输入。在程序退出前,OpenGL总会先停止工作;

    顶点数组[VertexArray]和顶点缓冲区[VertexBuffer]

    • 画图⼀般是先画好图像的⻣架,然后再往⻣架⾥⾯填充颜⾊,这对于OpenGL也是⼀样的。顶点数据就是要画的图像的⻣架,和现实中不同的是,OpenGL中的图像都是由图元组成。在OpenGLES中,有3种类型的图元:点、线、三⻆形。那这些顶点数据最终是存储在哪⾥的呢?开发者可以选择设定函数指针,在调⽤绘制⽅法的时候,直接由内存传⼊顶点数据,也就是说这部分数据之前是存储在内存当中的,被称为顶点数组。⽽性能更⾼的做法是,提前分配⼀块显存,将顶点数据预先传⼊到显存当中。这部分的显存,就被称为顶点缓冲区。顶点缓存区在显卡显存中
    • 顶点指的是我们在绘制⼀个图形时,它的顶点位置数据.⽽这个数据可以直接存储在数组中或者将其缓存到GPU内存中.

    管线

    管线:在OpenGL下渲染图形,就会有经历⼀个⼀个节点.⽽这样的操作可以理解管线。⼤家可以想象成流⽔线,每个任务类似流⽔线般执⾏,任务之间有先后顺序, 管线是⼀个抽象的概念,之所以称之为管线是因为显卡在处理数据的时候是按照⼀个固定的顺序来的,⽽且严格按照这个顺序。就像⽔从⼀根管⼦的⼀端流到另⼀端,这个顺序是不能打破的。

    固定管线/存储着⾊器

    • 在早期的OpenGL版本,它封装了很多种着⾊器程序块内置的⼀段包含了光照、坐标变换、裁剪等等诸多功能的固定Shader程序来完成,来帮助开发者来完成图形的渲染. ⽽开发者只需要传⼊相应的参数,就能快速完成图形的渲染. 类似于iOS开发会封装很多API,⽽我们只需要调⽤,就可以实现功能.不需要关注底层实现原理。
    • 但是由于OpenGL的使⽤场景⾮常丰富,固定管线或存储着⾊器⽆法完成每⼀个业务.这时将相关部分开放成可编程。

    着色器程序Shader

    • 就全⾯的将固定渲染管线架构变为了可编程渲染管线。因此,OpenGL在实际调⽤绘制函数之前,还需要指定⼀个由Shader编译成的着⾊器程序。常⻅的着⾊器主要有顶点着⾊器(VertexShader),⽚段着⾊器(FragmentShader)/像素着⾊器(PixelShader),⼏何着⾊器(GeometryShader),曲⾯细分着⾊器(TessellationShader)。⽚段着⾊器和像素着⾊器只是在OpenGLDX中的不同叫法⽽已。可惜的是,直到OpenGLES 3.0,依然只⽀持了顶点着⾊器和⽚段着⾊器这两个最基础的着⾊器。
    OpenGL在处理shader时,和其他编译器⼀样。通过编译、链接等步骤,⽣成了着⾊器程序(glProgram),着⾊器程序同时包含了顶点着⾊器和⽚段着⾊器的运算逻辑。在OpenGL进⾏绘制的时候,⾸先由顶点着⾊器对传⼊的顶点数据进⾏运算。再通过图元装配,将顶点转换为图元。然后进⾏光栅化,将图元这种⽮量图形,转换为栅格化数据。最后,将栅格化数据传⼊⽚段着⾊器中进⾏运算。⽚段着⾊器会对栅格化数据中的每⼀个像素进⾏运算,并决定像素的颜⾊。

    顶点着⾊器(VertexShader)

    • ⼀般⽤来处理图形每个顶点变换(旋转/平移/投影等)
    • 顶点着⾊器是OpenGL中⽤于计算顶点属性的程序。顶点着⾊器是逐顶点运算的程序,也就是说每个顶点数据都会执⾏⼀次顶点着⾊器,当然这是并⾏的,并且顶点着⾊器运算过程中⽆法访问其他顶点的数据。
    • ⼀般来说典型的需要计算的顶点属性主要包括顶点坐标变换、逐顶点光照运算等等。顶点坐标由⾃身坐标系转换到归⼀化坐标系的运算,就是在这⾥发⽣的。

    ⽚元/片段/像素着⾊器程序(FragmentShader)

    • ⼀般⽤来处理图形中每个像素点颜⾊计算和填充。
    • ⽚段着⾊器是OpenGL中⽤于计算⽚段(像素)颜⾊的程序。⽚段着⾊器是逐像素运算的程序,也就是说每个像素都会执⾏⼀次⽚段着⾊器,当然也是并⾏的。

    GLSL(OpenGL Shading Language)

    OpenGL着⾊语⾔(OpenGL Shading Language)是⽤来在OpenGL中着⾊编程的语⾔,也即开发⼈员写的短⼩的⾃定义程序,他们是在图形卡的GPUGraphic Processor Unit图形处理单元)上执⾏的,代替了固定的渲染管线的⼀部分,使渲染管线中不同层次具有可编程性。⽐如:视图转换、投影转换等。GLSL(GL Shading Language)的着⾊器代码分成2个部分:Vertex Shader(顶点着⾊器)和Fragment(⽚断着⾊器)。

    光栅化(Rasterization)

    • 是把顶点数据转换为⽚元的过程,具有将图转化为⼀个个栅格组成的图象的作⽤,特点是每个元素对应帧缓冲区中的⼀像素。
    • 光栅化就是把顶点数据转换为⽚元的过程,⽚元中的每⼀个元素对应于帧缓冲区中的⼀个像素。
    • 光栅化其实是⼀种将⼏何图元变为⼆维图像的过程。该过程包含了两部分的⼯作。第⼀部分⼯作:决定窗⼝坐标中的哪些整型栅格区域被基本图元占⽤;第⼆部分⼯作:分配⼀个颜⾊值和⼀个深度值到各个区域。光栅化过程产⽣的是⽚元。
    • 把物体的数学描述以及与物体相关的颜⾊信息转换为屏幕上⽤于对应位置的像素及⽤于填充像素的颜⾊,这个过程称为光栅化,这是⼀个将模拟信号转化为离散信号的过程。

    纹理

    • 纹理可以理解为图⽚,⼤家在渲染图形时需要在其编码填充图⽚,为了使得场景更加逼真。⽽这⾥使⽤的图⽚,就是常说的纹理,但是在OpenGL,我们更加习惯叫纹理,⽽不是图⽚。

    混合(Blending)

    • 在测试阶段之后,如果像素依然没有被剔除,那么像素的颜⾊将会和帧缓冲区中颜⾊附着上的颜⾊进⾏混合,混合的算法可以通过OpenGL的函数进⾏指定。但是OpenGL提供的混合算法是有限的,如果需要更加复杂的混合算法,⼀般可以通过像素着⾊器进⾏实现,当然性能会⽐原⽣的混合算法差⼀些。

    变换矩阵(Transformation)

    • 例如图形想发⽣平移,缩放,旋转变换.就需要使⽤变换矩阵。

    投影矩阵(Projection)

    • ⽤于将3D坐标转换为⼆维屏幕坐标,实际线条也将在⼆维坐标下进⾏绘制。

    视口、窗口

    • 视口是与设备相关的一个矩形区域,坐标单位是与设备相关的“像素”,大多数情况下,视口与客户区相同。窗口的坐标是逻辑坐标,与设备无关,可能是像素、毫米或者英寸。窗口坐标的原点与视口坐标的原点始终对应于同一点。对于同一个图形,用窗口坐标系统表达的该区域的长和宽与视口的坐标系统表达的长和宽是不同的。二者就定义了这两个坐标系统的比例关系。程序作图时,使用的坐标总是是窗口坐标。而实际的显示或输出设备却各有自己的坐标。视口是设备自己的坐标,窗口是逻辑坐标

    渲染上屏/交换缓冲区(SwapBuffer)

    • 渲染缓冲区⼀般映射的是系统的资源⽐如窗⼝。如果将图像直接渲染到窗⼝对应的渲染缓冲区,则可以将图像显示到屏幕上。
    • 但是,值得注意的是,如果每个窗⼝只有⼀个缓冲区,那么在绘制过程中屏幕进⾏了刷新,窗⼝可能显示出不完整的图像
    • 为了解决这个问题,常规的OpenGL程序⾄少都会有两个缓冲区。显示在屏幕上的称为屏幕缓冲区,没有显示的称为离屏缓冲区。在⼀个缓冲区渲染完成之后,通过将屏幕缓冲区和离屏缓冲区交换,实现图像在屏幕上的显示。
    • 由于显示器的刷新⼀般是逐⾏进⾏的,因此为了防⽌交换缓冲区的时候屏幕上下区域的图像分属于两个不同的帧,因此交换⼀般会等待显示器刷新完成的信号,在显示器两次刷新的间隔中进⾏交换,这个信号就被称为垂直同步信号,这个技术被称为垂直同步
    • 使⽤了双缓冲区和垂直同步技术之后,由于总是要等待缓冲区交换之后再进⾏下⼀帧的渲染,使得帧率⽆法完全达到硬件允许的最⾼⽔平。为了解决这个问题,引⼊了三缓冲区技术,在等待垂直同步时,来回交替渲染两个离屏的缓冲区,⽽垂直同步发⽣时,屏幕缓冲区和最近渲染完成的离屏缓冲区交换,实现充分利⽤硬件性能的⽬的

      这里有一个iOS中很经常听到的概念,离屏渲染,很多人知道离屏渲染会对APP的性能造成较大的开销,但是却不知道原理是什么,相信大家了解了上面关于OpenGL关于交换缓冲区的概念后,有了一个更清晰的认识,即:Off-Screen Rendering是需要开辟新的缓冲区的,不停地切换上下文的环境则是对性能的很大的消耗,所以在iOS开发中,我们应当尽量的避免离屏渲染。
      在学习OpenGL的过程中,直接非常直观的掌握并理解这些概念并不是一件容易的事,但是至少需要在入门阶段,大致的了解这些概念的意思,然后通过后续的学习,慢慢的巩固前面学到的知识,温故而知新,一步步的打开关于iOS底层渲染知识的大门,学习的越来越深入,慢慢的回过头看以前的知识点的时候,就会豁然开朗了。
      希望能一步步的记录自己学习的过程,慢慢进步,慢慢成长,文章中有任何错误的地方,欢迎指正。希望能多多交流,共同进步。

    相关文章

      网友评论

        本文标题:iOS开发快速了解OpenGL基本概念

        本文链接:https://www.haomeiwen.com/subject/olhpxktx.html