向量
在 3D 笛卡尔坐标系, 基本上一个顶点就是XYZ 坐标空间上的⼀个位置。而在空间中给定的一个位置恰是由一个单独的 XYZ 定义的。 ⽽这样的 XYZ 就是向量;
向量长度(向量的模)计算公式:
我们把向量长度(向量的模)为1的向量称为单位向量。
OpenGL如何定义向量
math3d
库,有2个数据类型,能够表示一个三维或者四维向量。
M3DVector3f
可以表示⼀个三维向量量(x,y,z),
M3DVector4f
则可以表示⼀一个四维向量量(x,y,z,w)。
在典型情况下,w坐标设为1.0。x,y,z值通过除以w,来进行缩放。而除以1.0则本质上不改变x,y,z值。
//三维向量/四维向量的声明
typedef float M3DVector3f[3]; typedef float M3DVector4f[4];
//声明一个三维向量 M3DVector3f:类型 vVector:变量名
M3DVector3f vVector;
//声明一个四维向量并初始化一个四维向量
M3DVector4f vVertex = {0,0,1,1};
//声明一个三分量顶点数组,例如⽣成⼀个三角形
M3DVector3f vVerts[] = {
-0.5f,0.0f,0.0f, 0.5f,0.0f,0.0f, 0.0f,0.5f,0.0f
};
向量点乘
前提条件: 2个向量必须为单位向量;
动作: 2个三维向量之间进行点乘
结果:返回⼀个[-1,1]范围的值,是一个标量。 这个值其实就是夹角的cos值(余弦值)
单位化向量计算公式:使⽤用⼀个非零向量除以它的模(向量的⻓度), 就可以得到⽅向相同的单位向量。如下所示:
(x/|xyz|, y/|xyz|, z/|xyz|);
math3d
库中关于点乘的API
- m3dDotProduct3 函数获得2个向量量之间的点乘结果;
float m3dDotProduct3(const M3DVector3f u,const M3DVector3f v);
- m3dGetAngleBetweenVector3 即可获取2个向量量之间夹⻆角的弧度值;
float m3dGetAngleBetweenVector3(const M3DVector3f u,const
M3DVector3f v);
向量叉乘
2个向量之间叉乘就可以得到另外一个向量,新的向量会与原来2个向量定义的平面垂直。
前提: 2个普通向量
动作: 向量与向量叉乘
结果: 向量(垂直于原来2个向量定义的平面的向量)
math3d
库中提供了了关于叉乘的API
- m3dCrossProduct3 函数获得2个向量之间的叉乘结果得到一个新的向量
void m3dCrossProduct3(M3DVector3f result,const M3DVector3f u,const
M3DVector3f v);
矩阵
矩阵分类.pngOpenGL中的矩阵都是4x4的,每一列都是由4个元素组成的向量,如图所示
- 第一列表示x轴方向
- 第二列表示y轴方向
- 第三列表示z轴方向
- 第四列表示交换位置
-
列向量进行了特殊的标注,表示这是以列为主的矩阵,主要体现为矩阵的最后一行都是0,只有最后一个元素为1
OpenGL 4 X 4 矩阵.png
单元矩阵
- 单元矩阵初始化⽅方式①
GLFloat m[] = {
1,0,0,0, //X Column
0,1,0,0, //Y Column
0,0,1,0, //Z Column
0,0,0,1 // Translation
}
- 单元矩阵初始化⽅方式②
M3DMatrix44f m = {
1,0,0,0, //X Column
0,1,0,0, //Y Column
0,0,1,0, //Z Column
0,0,0,1 // Translation
}
- 单元矩阵初始化⽅方式③
void m3dLoadIdentity44f(M3DMatrix44f m);
理解OpenGL中的矩阵相乘
- 数学中为了方便计算,都是以行矩阵为标准,从左到右的顺序进行计算,所以在数学中,顶点将以行向量的方式表示
- 从数学角度理解mvp矩阵的计算,由于顶点是行向量,要满足矩阵相乘的规定条件(即 叉乘的前提),必须将mvp矩阵放在右边,属于右乘
- 顶点向量 = V_local * M_model * M_view * M_pro
-
顶点向量 = 顶点 * 模型矩阵 * 观察矩阵 * 投影矩阵
数学角度.png
OpenGL角度
- OpenGL中的矩阵规定是以列为主,所以顶点以列向量的方式表示
-
从OpenGL角度理解mvp矩阵的计算,由于顶点是列向量,如果项进行矩阵规则,就需要满足矩阵相乘的条件,需要将mvp矩阵的顺序颠倒为pvm,且放在列向量的左边,属于左乘
OpenGL角度.png
// 召唤场景
void RenderScene(void)
{
...
//压栈
modelViewMatrix.PushMatrix();
M3DMatrix44f mCamera;
cameraFrame.GetCameraMatrix(mCamera);
//矩阵乘以矩阵堆栈的顶部矩阵,相乘的结果随后简存储在堆栈的顶部
modelViewMatrix.MultMatrix(mCamera);
M3DMatrix44f mObjectFrame;
//只要使用 GetMatrix 函数就可以获取矩阵堆栈顶部的值,这个函数可以进行2次重载。用来使用GLShaderManager 的使用。或者是获取顶部矩阵的顶点副本数据
objectFrame.GetMatrix(mObjectFrame);
//矩阵乘以矩阵堆栈的顶部矩阵,相乘的结果随后简存储在堆栈的顶部
modelViewMatrix.MultMatrix(mObjectFrame);
/* GLShaderManager 中的Uniform 值——平面着色器
参数1:平面着色器
参数2:运行为几何图形变换指定一个 4 * 4变换矩阵
--transformPipeline.GetModelViewProjectionMatrix() 获取的
GetMatrix函数就可以获得矩阵堆栈顶部的值
参数3:颜色值(黑色)
*/
shaderManager.UseStockShader(GLT_SHADER_FLAT, transformPipeline.GetModelViewProjectionMatrix(), vBlack);
...
//还原到以前的模型视图矩阵(单位矩阵)
modelViewMatrix.PopMatrix();
...
}
从上面的代码中,我们看到,在RenderScene函数中,模型视图栈首先乘以mCamera(观察者矩阵),然后,我们再是乘以mObjectFrame(模型矩阵),最后,使用transformPipeline.GetModelViewProjectionMatrix()方法,我们用投影矩阵乘以模型视图矩阵,将最后结果返回。
也就是如下顺序:
projection * view * model
那么,我们为什么要按照这个顺序来添加矩阵呢?
这要从两个方面讲起,一个是看这几个方法的实现,还有一个就是坐标变换。
实现
首先是矩阵相乘的实现
inline void MultMatrix(const M3DMatrix44f mMatrix) {
M3DMatrix44f mTemp;
m3dCopyMatrix44(mTemp, pStack[stackPointer]);
m3dMatrixMultiply44(pStack[stackPointer], mTemp, mMatrix);
}
从实现可以看出,调用这个方法就是将栈顶的矩阵取出,乘以参数的矩阵,再将相乘结果存放在原来的栈顶。
我们在两个地方依次调用了这个方法
//1.矩阵乘以模型视图栈的顶部矩阵,相乘的结果随后简存储在堆栈的顶部
modelViewMatrix.MultMatrix(mCamera);
//2.矩阵乘以模型视图栈的顶部矩阵,相乘的结果随后简存储在堆栈的顶部
modelViewMatrix.MultMatrix(mObjectFrame);
按照实现,这两部合并就是将mCamera
* mObjectFrame
的结果存放在模型视图矩阵的栈顶。
再看transformPipeline.GetModelViewProjectionMatrix()
的实现:
const M3DMatrix44f& GetModelViewProjectionMatrix(void)
{
m3dMatrixMultiply44(_mModelViewProjection, _mProjection->GetMatrix(), _mModelView->GetMatrix());
return _mModelViewProjection;
}
这个的实现也很简单,就是返回投影矩阵 * 模型视图矩阵的结果,综合上面的分析,也就是:
projection * view * model
顺序是如此,下面我们从坐标变换来讲解为什么是这个顺序
坐标变换
坐标系变化.png如图所示,为了将坐标从一个坐标系变换到另一个坐标系,我们需要用到几个变换矩阵,最重要的几个分别是模型(
Model
)、观察(View
)、投影(Projection
)三个矩阵。我们的顶点坐标起始于局部空间(Local Space
),在这里它称为局部坐标(Local Coordinate
),它在之后会变为世界坐标(World Coordinate
),观察坐标(View Coordinate
),裁剪坐标(Clip Coordinate
),并最后以屏幕坐标(Screen Coordinate)
的形式结束。它的流程如下:
- 局部坐标是对象相对于局部原点的坐标,也是物体起始的坐标。
- 下一步是将局部坐标变换为世界空间坐标,世界空间坐标是处于一个更大的空间范围的。这些坐标相对于世界的全局原点,它们会和其它物体一起相对于世界的原点进行摆放。
- 接下来我们将世界坐标变换为观察空间坐标,使得每个坐标都是从摄像机或者说观察者的角度进行观察的。
- 坐标到达观察空间之后,我们需要将其投影到裁剪坐标。裁剪坐标会被处理至-1.0到1.0的范围内,并判断哪些顶点将会出现在屏幕上。
- 最后,我们将裁剪坐标变换为屏幕坐标,我们将使用一个叫做视口变换
(Viewport Transform)
的过程。视口变换将位于-1.0到1.0范围的坐标变换到由glViewport
函数所定义的坐标范围内。最后变换出来的坐标将会送到光栅器,将其转化为片段。
我们为上面的步骤创建了三个矩阵:模型矩阵、观察矩阵和投影矩阵。
注意矩阵运算的顺序是相反的(我们需要从右往左阅读矩阵的乘法)。最后的顶点应该被复制到顶点着色器的内建变量gl_position
,OpenGL
将会自动进行透视除法和裁剪。
根据这个过程,我们就可以回答一开始的问题,为什么OpenGL
中需要先加入camera
(也就是view
),再加入model
,最后是projection
网友评论