本文继续对《UnityShader入门精要》——冯乐乐 第十三章 使用深度和法线纹理 进行学习
参考第13章 使用深度和法线纹理
在第12 章中,我们学习的屏幕后处理效果都只是在屏幕颜色图像上进行各种操作来实现的。然而,很多时候我们不仅需要当前屏幕的颜色信息,还希望得到深度和法线信息。例如,在进行边缘检测时,直接利用颜色信息会使检测到的边缘信息受物体纹理和光照等外部因素的影响,得到很多我们不需要的边缘点。一种更好的方法是,我们可以在深度纹理和法线纹理上进行边缘检测,这些图像不会受纹理和光照的影响,而仅仅保存了当前渲染物体的模型信息,通过这样的方式检测出来的边缘更加可靠。
在本章中,我们将学习如何在Unity 中获取深度纹理和法线纹理来实现特定的屏幕后处理效果。
- 在13.1 节中,我们首先会学习如何在Unity 中获取这两种纹理。
- 在13.2 节中,我们会利用深度纹理来计算摄像机的移动速度,实现摄像机的运动模糊效果。
- 在13.3 节中,我们会学习如何利用深度纹理来重建屏幕像素在世界空间中的位置,从而模拟屏幕雾效。
- 13.4 节会再次学习边缘检测的另一种实现,即利用深度和法线纹理进行边缘检测。
一、获取深度和法线纹理
深度纹理实际就是一张渲染纹理,只不过它里面存储的像素值不是颜色值,而是一个高精度的深度值。由于被存储在一张纹理中,深度纹理里的深度值范围是[0, 1],而且通常是非线性分布的。那么,这些深度值是从哪里得到的呢?要回答这个问题,我们需要回顾在第4 章学过的顶点变换的过程。
总体来说,这些深度值来自于顶点变换后得到的归一化的设备坐标( Normalized Device Coordinates , NDC )。回顾一下,一个模型要想最终被绘制在屏幕上,需要把它的顶点从模型空间变换到齐次裁剪坐标系下,这是通过在顶点着色器中乘以MVP 变换矩阵得到的。
1.透视投影
在MVP变换的最后一步,我们需要使用一个投影矩阵来变换顶点,当我们使用的是透视投影类型的摄像机时,这个投影矩阵就是非线性的,具体过程可回顾4.6.7 小节。
图13.1 显示了4.6.7 小节中给出的Unity 中透视投影对顶点的变换过程。图13.1 中最左侧的图显示了投影变换前,即观察空间下视锥体的结构及相应的顶点位置,中间的图显示了应用透视裁剪矩阵后的变换结果,即顶点着色器阶段输出的顶点变换结果,最右侧的图则是底层硬件进行了透视除法后得到的归一化的设备坐标。需要注意的是,这里的投影过程是建立在Unity 对坐标系的假定上的,也就是说,我们针对的是观察空间为右手坐标系,使用列矩阵在矩阵右侧进行相乘,且变换到NDC 后z 分量范围将在[-1, 1]之间的情况。而在类似DirectX 这样的图形接口中,变换后z 分量范围将在[0, 1]之间。如果需要在其他图形接口下实现本章的类似效果, 需要对一些计算参数做出相应变化。关于变换时使用的矩阵运算, 读者可以参考4.6.7 小节。
2.正交投影
图13.2 在正交投影中,投影矩阵对顶点进行了缩放。在经过齐次除法后,正交投影的裁剪空间会变换到一个立方体。图中标注了4个关键点经过投影矩阵变换后的结果图13.2 显示了在使用正交摄像机时投影变换的过程。同样,变换后会得到一个范围为[-1, 1] 的立方体。正交投影使用的变换矩阵是线性的。
3.深度纹理中的像素值
在得到NDC 后,深度纹理中的像素值就可以很方便地计算得到了,这些深度值就对应了NDC 中顶点坐标的z 分量的值。由于NDC 中z 分量的范围在[-1, 1],为了让这些值能够存储在一张图像中,我们需要使用下面的公式对其进行映射:
image.png
其中, d 对应了深度纹理中的像素值, Zndc 对应了NDC 坐标中的z 分量的值。
4.那么Unity 是怎么得到这样一张深度纹理的呢?
在Unity 中,深度纹理可以直接来自于真正的深度缓存,也可以是由一个单独的Pass 渲染而得,这取决于使用的渲染路径和硬件。
通常来讲,当使用延迟渲染路径(包括遗留的延迟渲染路径)时,深度纹理理所当然可以访问到,因为延迟渲染会把这些信息渲染到G-buffer 中。而当无法直接获取深度缓存时,深度和法线纹理是通过一个单独的Pass 渲染而得的。具体实现是, Unity 会使用着色器替换( Shader Replacement )技术选择那些渲染类型〈即SubShader 的RenderType 标签)为Opaque 的物体,判断它们使用的渲染队列是否小于等于2 500 (内置的Background 、Geometry 和AlphaTest 渲染队列均在此范围内),如果满足条件,就把它渲染到深度和法线纹理中。因此,要想让物体能够出现在深度和法线纹理中,就必须在Shader 中设置正确的RenderType 标签。
在Unity 中,我们可以选择让一个摄像机生成一张深度纹理或是一张深度+法线纹理。当选择前者,即只需要一张单独的深度纹理时, Unity 会直接获取深度缓存或是按之前讲到的着色器替换技术,选取需要的不透明物体,并使用它投射阴影时使用的Pass (即LightMode 被设置为ShadowCaster 的Pass,详见9.4 节)来得到深度纹理。如果Shader 中不包含这样一个Pass,那么这个物体就不会出现在深度纹理中(当然,它也不能向其他物体投射阴影)。
深度纹理的精度通常是24 位或16 位,这取决于使用的深度缓存的精度。如果选择生成一张深度+法线纹理, Unity 会创建一张和屏幕分辨率相同、精度为32 位〈每个通道为8 位)的纹理,其中观察空间下的法线信息会被编码进纹理的R 和G 通道,而深度信息会被编码进B 和A 通道。法线信息的获取在延迟渲染中是可以非常容易就得到的, Unity 只需要合并深度和法线缓存即可。而在前向渲染中,默认情况下是不会创建法线缓存的,因此Unity 底层使用了一个单独的Pass 把整个场景再次渲染一遍来完成。这个Pass 被包含在Unity 内置的一个Unity Shader 中,我们可以在内置的
builtin_shaders-xxx/DefaultResources/Camera-DepthNormalTexture.shader 文件中找到这个用于渲染深度和法线信息的Pass。
5.如何获取
在Unity 中,获取深度纹理是非常简单的,我们只需要告诉Unity:“嘿,把深度纹理给我!”然后再在Shader 中直接访问特定的纹理属性即可。这个与Unity 沟通的过程是通过在脚本中设置摄像机的depthTextureMode 来完成的,例如我们可以通过下面的代码来获取深度纹理:
camera.depthTextureMode = DepthTextureMode.Depth;
一旦设置好了上面的摄像机模式后,我们就可以在Shader 中通过声明 _CameraDepthTexture变量来访问它。这个过程非常简单,但我们需要知道这两行代码的背后, Unity 为我们做了许多工作(见13.1.1 节〉。
同理,如果想要获取深度+法线纹理,我们只需要在代码中这样设置:
camera.depthTextureMode = DepthTextureMode.DepthNormals;
然后在Shader 中通过声明 _CameraDepthNormalsTexture 变量来访问它。
我们还可以组合这些模式,让一个摄像机同时产生一张深度和深度+法线纹理:
camera.depthTextureMode |= DepthTextureMode.Depth;
camera.depthTextureMode |= DepthTextureMode.DepthNormals;
在Unity 5 中,我们还可以在摄像机的Camera 组件上看到当前摄像机是否需要渲染深度或深度+法线纹理。当在Shader 中访问到深度纹理 _CameraDepthTexture 后,我们就可以使用当前像素的纹理坐标对它进行采样。绝大多数情况下,我们直接使用tex2D 函数采样即可,但在某些平台(例如PS3 和PSP2 )上,我们需要一些特殊处理。Unity 为我们提供了一个统一的宏SAMPLE_DEPTH_TEXTURE,用来处理这些由于平台差异造成的问题。而我们只需要在Shader中使用SAMPLE_DEPTH_TEXTURE 宏对深度纹理进行采样,例如:
float d = SAMPLE_DEPTH_TEXTURE(_CarneraDepthTexture, i.uv);
其中, i.uv 是一个float2 类型的变量,对应了当前像素的纹理坐标。
类似的宏还有SAMPLE_DEPTH_TEXTURE_PROJ 和SAMPLE_DEPTH_TEXTURE_LOD。
SAMPLE_DEPTH_TEXTURE_PROJ 宏同样接受两个参数一一深度纹理和一个float3 或float4 类型的纹理坐标,它的内部使用了tex2Dproj 这样的函数进行投影纹理采样,纹理坐标的前两个分量首先会除以最后一个分量,再进行纹理采样。如果提供了第四个分量,还会进行一次比较,通常用于阴影的实现中。SAMPLE_DEPTH_TEXTURE PROJ 的第二个参数通常是由顶点着色器输出插值而得的屏幕坐标,例如:
float d = SAMPLE_DEPTH_TEXTURE_PROJ(_CarneraDepthTexture, UNITY_PROJ_COORD(i.scrPos));
其中, i.scrPos 是在顶点着色器中通过调用ComputeScreenPos(o.pos)得到的屏幕坐标。上述这些宏的定义,读者可以在Unity 内置的HLSLSupport.cginc 文件中找到。
6.由深度纹理中的深度信息计算得到视角空间下的深度值
当通过纹理采样得到深度值后,这些深度值往往是非线性的,这种非线性来自于透视投影使用的裁剪矩阵。然而,在我们的计算过程中通常是需要线性的深度值,也就是说,我们需要把投影后的深度值变换到线性空间下,例如视角空间下的深度值。那么,我们应该如何进行这个转换呢?实际上,我们只需要倒推顶点变换的过程即可。下面我们以透视投影为例,推导如何由深度纹理中的深度信息计算得到视角空间下的深度值。
由4.6.7节可知,当我们使用透视投影的裁剪矩阵Pclip对视角空间下的一个顶点进行变换后,裁剪空间下顶点的z和w分量为:
image.png
其中,Far和Near分别是远近裁剪平面的距离。然后,我们通过齐次除法就可以得到NDC下的z分量:
image.png
在13.1.1节中我们知道,深度纹理中的深度值是通过下面的公式由NDC计算而得的:
image.png
由上面的这些式子,可以推导出用d表示而得的Zvisw的表达式:
image.png
由于在Unity使用的视角空间中,摄像机正向对应的z值均为负值,因此为了得到深度值的正数表示,我们需要对上面的结果取反,最后得到的结果如下:
image.png
它的取值范围就是视椎体深度范围,即[Near,Far]。如果我们想得到范围在[0,1]之间的深度值,只需要把上面得到的结果除以Far即可。这样,0就表示该点与摄像机位于同一位置,1表示该点位于视椎体的远裁剪平面上。结果如下:
image.png
幸运的是, Unity 提供了两个辅助函数来为我们进行上述的计算过程一一LinearEyeDepth 和 Linear01Depth。
- LinearEyeDepth 负责把深度纹理的采样结果转换到视角空间下的深度值,也就是我们上面得到的Zvisw。
- 而Linear01Depth 则会返回一个范围在[0, 1]的线性深度值,也就是我们上面得到的Z 01 。这两个函数内部使用了内置的 _ZBufferParams 变量来得到远近裁剪平面的距离。
如果我们需要获取深度+法线纹理,可以直接使用tex2D 函数对 _CameraDepthNormalsTexture 进行采样,得到里面存储的深度和法线信息。Unity 提供了辅助函数来为我们对这个采样结果进行解码,从而得到深度值和法线方向。这个函数DecodeDepthNorrnal, 它在UnityCG.cginc 里被定义:
inline void DecodeDepthNormal( float4 enc, out float depth, out float3 normal)
{
depth = DecodeFloatRG (enc.zw);
normal= DecodeViewNormalStereo(enc);
}
DecodeDepthNormal 的第一个参数是对深度+法线纹理的采样结果,这个采样结果是Unity 对深度和法线信息编码后的结果, 它的xy 分量存储的是视角空间下的法线信息, 而深度信息被编码进了zw 分量。通过调用DecodeDepthNormal 函数对采样结果解码后,我们就可以得到解码后的深度值和法线。这个深度值是范围在[0, 1]的线性深度值(这与单独的深度纹理中存储的深度值不同〉,而得到的法线则是视角空间下的法线方向。同样, 我们也可以通过调用DecodeFloatRG 和 DecodeViewNormaLStereo 来解码深度+法线纹理中的深度和法线信息。
至此,我们已经学会了如何在Unity 里获取及使用深度和法线纹理。下面, 我们会学习如何使用它们实现各种屏幕特效。
二、查看深度和法线纹理
很多时候, 我们希望可以查看生成的深度和法线纹理,以便对Shader 进行调试。Unity 5 提供了一个方便的方法来查看摄像机生成的深度和法线纹理, 这个方法就是利用帧调试器( Frame Debugger)。图13.3 显示了使用帧调试器查看到的深度纹理和深度+法线纹理。
图13.3 使用Frame Debugger查看深度纹理(左)和深度+法线纹理(右)。如果当前摄像机需要生成深度和法线纹理,帧调试器的面板中就会出现相应的渲染事件。只要单击对应的事件就可以查看得到的深度和法线纹理
使用帧调试器查看到的深度纹理是非线性空间的深度值,而深度+法线纹理都是由Unity 编码后的结果。有时,显示出线性空间下的深度信息或解码后的法线方向会更加有用。此时,我们可以自行在片元着色器中输出转换或解码后的深度和法线值, 如图13.4 所示。输出代码非常简单,我们可以使用类似下面的代码来输出线性深度值:
float depth= SAMPLE_DEPTH_TEXTURE(_CameraDepthTexture, i.uv);
float linearDepth = LinearOlDepth(depth);
return fixed4(linearDepth, linearDepth, linearDepth, 1.0);
或是输出法线方向:
fixed3 normal = DecodeViewNormalStereo(tex2D( _CameraDepthNormalsTexture, i.uv).xy);
return fixed4 (normal * 0.5 + 0.5, 1.0);
在查看深度纹理时,读者得到的画面有可能几乎是全黑或全白的。这时候读者可以把摄像机的远裁剪平面的距离( Unity 默认为1000 )调小, 使视锥体的范围刚好覆盖场景的所在区域。这是因为,由于投影变换时需要覆盖从近裁剪平面到远裁剪平面的所有深度区域, 当远裁剪平面的 距离过大时, 会导致离摄像机较近的距离被映射到非常小的深度值,如果场景是一个封闭的区域 (如图13.4 所示〉, 那么这就会导致画面看起来几乎是全黑的。相反, 如果场景是一个开放区域, 且物体离摄像机的距离较远, 就会导致画面儿乎是全白的。
图13.4 左图:线性空间下的深度纹理。右图:解码后并且被映射到[0, 1]范围内的视角空间下的法线纹理
三、再谈运动模糊
在12.6 节中,我们学习了如何通过混合多张屏幕图像来模拟运动模糊的效果。但是,另一种应用更加广泛的技术则是使用速度映射图。速度映射图中存储了每个像素的速度,然后使用这个速度来决定模糊的方向和大小。速度缓冲的生成有多种方法,一种方法是把场景中所有物体的速度渲染到一张纹理中。但这种方法的缺点在于需要修改场景中所有物体的Shader 代码,使其添加计算速度的代码并输出到一个渲染纹理中。
《GPU Gems3》在第27 章(http:http.developer.nvidia.com/GPUGems3/gpugems3_ch27.html) 中介绍了一种生成速度映射图的方法。这种方法利用深度纹理在片元着色器中为每个像素计算其在世界空间下的位置,这是通过使用当前的视角*投影矩阵的逆矩阵对NDC 下的顶点坐标进行变换得到的。当得到世界空间中的顶点坐标后,我们使用前一帧的视角*投影矩阵对其进行变换,得到该位置在前一帧中的NDC 坐标。然后,我们计算前一帧和当前帧的位置差,生成该像素的速度。这种方法的优点是可以在一个屏幕后处理步骤中完成整个效果的模拟,但缺点是需要在片元着色器中进行两次矩阵乘法的操作,对性能有所影响。
1.实现
代码细节见原书
2.总结
本节实现的运动模糊适用于场景静止、摄像机快速运动的情况,这是因为我们在计算时只考虑了摄像机的运动。因此,如果读在把本节中的代码应用到一个物体快速运动而摄像机静止的场景,会发现不会产生任何运动模糊效果。如果我们想要对快速移动的物体产生运动模糊的效果,就需要生成更加精确的速度映射图。读者可以在Unity 自带的lmageEffect 包中找到更多的运动模糊的实现方法。
本节选择在片元着色器中使用逆矩阵来重建每个像素在世界空间下的位置。但是,这种做法往往会影响性能,在13.3 节中,我们会介绍一种更快速的由深度纹理重建世界坐标的方法。
四、全局雾效
雾效(Fog )是游戏里经常使用的一种效果。Unity 内置的雾效可以产生基于距离的线性或指数雾效。然而,要想在自己编写的顶点/片元着色器中实现这些雾效,我们需要在Shader 中添加 #pragma multi_compile_fog 指令,同时还需要使用相关的内置宏,例如UNITY_FOG_COORDS, UNITY_TRANSFER_FOG 和 UNITY_APPLY_FOG 等。这种方法的缺点在于,我们不仅需要为场景中所有物体添加相关的渲染代码,而且能够实现的效果也非常有限。当我们需要对雾效进行一些个性化操作时,例如使用基于高度的雾效等,仅仅使用Unity 内置的雾效就变得不再可行。
在本节中,我们将会学习一种基于屏幕后处理的全局雾效的实现。使用这种方法,我们不需要更改场景内渲染的物体所使用的Shader代码,而仅仅依靠一次屏幕后处理的步骤即可。这种方法的自由性很高,我们可以方便地模拟各种雾效,例如均匀的雾效、基于距离的线性/指数雾效、基于高度的雾效等。在学习完本节后,我们可以得到类似图13.5 中的效果。
图13.5 左图:原效果。右图:添加全局雾效后的效果
基于屏幕后处理的全局雾效的关键是,根据深度纹理来重建每个像素在世界空间下的位置。尽管在13.2 节中,我们在模拟运动模糊时已经实现了这个要求,即构建出当前像素的NDC 坐标,再通过当前摄像机的视角*投影矩阵的逆矩阵来得到世界空间下的像索坐标,但是,这样的实现需要在片元着色器中进行矩阵乘法的操作,而这通常会影响游戏性能。
1.得到该像素在世界空间下的位置
在本节中,我们将会学习一个快速从深度纹理中重建世界坐标的方法。这种方法首先对图像空间下的视锥体射线(从摄像机出发,指向图像上的某点的射线〉进行插值,这条射线存储了该像素在世界空间下到摄像机的方向信息。然后,我们把该射线和线性化后的视角空间下的深度值相乘,再加上摄像机的世界位置,就可以得到该像素在世界空间下的位置。当我们得到世界坐标后,就可以轻松地使用各个公式来模拟全局雾效了。
2.如何从深度纹理中重建世界坐标
我们知道,坐标系中的一个顶点坐标可以通过它相对于另一个顶点坐标的偏移量来求得。重建像素的世界坐标也是基于这样的思想。我们只需要知道摄像机在世界空间下的位置,以及世界空间下该像素相对于摄像机的偏移量,把它们相加就可以得到该像素的世界坐标。整个过程可以使用下面的代码来表示:
float4 posWS = _worldSpaceCameraPos + linearDepth * interpolateRay;
其中, _WorldSpaceCameraPos 是摄像机在世界空间下的位置,这可以由Unity 的内置变量直接访问得到。而
linearDepth * interpolatedRay 则可以计算得到该像素相对于摄像机的偏移量, linearDepth 是由深度纹理得到的线性深度值, interpolatedRay 是由顶点着色器输出并插值后得到的射线,它不仅包含了该像素到摄像机的方向,也包含了距离信息。linearDepth 的获取我们己经在13.1.2 节中详细解释过了,因此,本节着重解释 interpolatedRay 的求法。
3. interpolatedRay 的求法
interpolatedRay 来源于对近裁剪平面的4 个角的某个特定向量的插值,这4 个向量包含了它们到摄像机的方向和距离信息,我们可以利用摄像机的近裁剪平面距离、FOV、横纵比计算而得。图13.6显示了计算时使用的一些辅助向量。为了方便计算,我们可以先计算两个向量——toTop 和 toRight, 它们是起点位于近裁剪平面中心、分别指向摄像机正上方和正右方的向量。它们的计算公式如下:
image.png
image.png
image.png
其中,Near是近裁剪平面的距离,FOV是竖直方向的视角范围,camera.up camera.right分别对应了摄像机的正上方和正右方。
当得到这两个辅助向量后,我们就可以计算4个角相对于摄像机的方向了。我们以左上角为例(见图13.6中的TL点),它的计算公式如下:
image.png
读者可以依靠基本的矢量运算验证上面的结果。同理,其他3个角的计算也是类似的:
image.png
image.png
image.png
注意,上面求得的4 个向量不仅包含了方向信息,它们的模对应了4 个点到摄像机的空间距离。由于我们得到的线性深度值并非是点到摄像机的欧式距离,而是在z 方向上的距离,因此,我们不能直接使用深度值和4 个角的单位方向的乘积来计算它们到摄像机的偏移量,如图13.7 所示。想要把深度值转换成到摄像机的欧式距离也很简单,我们以TL 点为例,根据相似三角形原理, TL 所在的射线上,像素的深度值和它到摄像机的实际距离的比等于近裁剪平面的距离和TL向量的模的比,即
image.png
由此可得,我们需要的TL距离摄像机的欧氏距离dist:
image.png
由于4个点相互对称,因此其他3个向量的模和TL相等,即我们可以使用同一个因子和单位向量相乘,得到它们对应的向量值:
image.png 图13.6 计算interpolatedRay 图13.7 采样得到的深度值并非是点到摄像机的欧式距离
屏幕后处理的原理是使用特定的材质去渲染一个刚好填充整个屏幕的四边形面片。这个四边形面片的4 个顶点就对应了近裁剪平面的4 个角。因此,我们可以把上面的计算结果传递给顶点着色器,顶点着色器根据当前的位置选择它所对应的向量,然后再将其输出,经插值后传递给片元着色器得到interpoIatedRay,我们就可以直接利用本节一开始提到的公式重建该像素在世界空间下的位置了。
4.实现
参考原书
五、再谈边缘检测
在12.3 节中,我们曾介绍如何使用Sobel 算子对屏幕图像进行边缘检测, 实现描边的效果。但是,这种直接利用颜色信息进行边缘检测的方法会产生很多我们不希望得到的边缘线,如图13.8 所示。
图13.8 左图:原效果。右图:直接对颜色图像进行边缘检测的结果
可以看出,物体的纹理、阴影等位置也被描上黑边,而这往往不是我们希望看到的。在本节中,我们将学习如何在深度和法线纹理上进行边缘检测,这些图像不会受纹理和光照的影响,而仅仅保存了当前渲染物体的模型信息,通过这样的方式检测出来的边缘更加可靠。在学习完本节后,我们可以得到类似图13.9 中的效果。
图13.9 在深度和法线纹理上进行更健壮的边缘检测。左图:在原图上描边的效果。右图:只显示描边的效果
与12.3 节使用Sobel 算子不同,本节将使用Roberts 算子来进行边缘检测。它使用的卷积核如图13.10 所示。
图13.10 Roberts算子
Roberts 算子的本质就是计算左上角和右下角的差值,乘以右上角和左下角的差值,作为评估边缘的依据。在下面的实现中,我们也会按这样的方式,取对角方向的深度或法线值,比较它们之间的差值,如果超过某个阀值(可由参数控制),就认为它们之间存在一条边。
1.实现
参考原书
2.总结
本节实现的描边效果是基于整个屏幕空间进行的,也就是说,场景内的所有物体都会被添加描边效果。但有时,我们希望只对特定的物体进行描边,例如当玩家选中场景中的某个物体后,我们想要在该物体周围添加一层描边效果。这时,我们可以使用Unity 提供的Graphics.DrawMesh 或 Graphics.DrawMeshNow 函数把需要描边的物体再次渲染一遍(在所有不透明物体渲染完毕之后),然
后再使用本节提到的边缘检测算法计算深度或法线纹理中每个像素的梯度值,判断它们是否小于某个阀值,如果是,就在Shader 中使用clip() 函数将该像素剔除掉,从而显示出原来的物体颜色。
六、扩展阅读
在本章中,我们介绍了如何使用深度和法线纹理实现诸如全局雾效、边缘检测等效果。尽管我们只使用了深度和法线纹理,但实际上我们可以在Unity 中创建任何需要的缓存纹理。
这可以通过使用Unity 的着色器替换( Shader Replacement )功能(即调用Camera.RenderWithShader(shader, replacementTag)函数)把整个场景再次渲染一遍来得到,而在很多时候,这实际也是Unity 创建深度和法线纹理时使用的方法。
深度和法线纹理在屏幕特效的实现中往往扮演了重要的角色。许多特殊的屏幕效果都需要依靠这两种纹理的帮助。Unity 曾在2011 年的SIGGRAPH (计算图形学的顶级会议〉上做了一个关于使用深度纹理实现各种特效的演讲
(http://blogs.unity3d.com/2011/09/08/special-effects-with-depth-talk-at-siggraph/ )。在这个演讲中, Unity 的工作人员解释了如何利用深度纹理来实现特定物体的描边、角色护盾、相交线的高光模拟等效果。在Unity 的 Image Effect
( http://docs.unity3d.com/Manual/comp-ImageEffects.html )包中,读者也可以找到一些传统的使用深度纹理实现屏幕特效的例子,例如屏幕空间的环境遮挡(Screen Space Ambient Occlusion, SSAO )等效果。
网友评论