美文网首页 ios零碎记录IOS个人开发音视频开发
OpenGL ES实践教程(四)VR全景视频播放

OpenGL ES实践教程(四)VR全景视频播放

作者: 落影loyinglin | 来源:发表于2016-08-26 11:16 被阅读6849次

教程

OpenGL ES实践教程1-Demo01-AVPlayer
OpenGL ES实践教程2-Demo02-摄像头采集数据和渲染
OpenGL ES实践教程3-Demo03-Mirror
其他教程请移步OpenGL ES文集,这一篇介绍以下知识点:

  • AVFoundation——加载视频;
  • CoreVideo——配置纹理;
  • OpenGL ES——渲染视频;
  • 3D数学——球体以及3维变换;

核心思路

通过AVFoundation加载视频源,读取到每一帧的CMSampleBuffer之后,用CoreVideo创建OpenGL ES纹理缓存并上传GPU;OpenGL ES按照球体的模型来渲染视频;用移动摄像机朝向或者旋转球体的方式来响应手指的移动达到移动镜头的效果。

效果展示

具体细节

1、配置OpenGL ES;

  • loadShaders加载着色器和compileShader编译着色器的内容前面的教程已经介绍过都次,不再赘述;
  • setupBuffers配置缓存信息,并且创建顶点数据缓存,把球体的顶点和纹理数据先上传GPU;

因为模型的顶点数据不会变化,故而可以预先上传,使用时只需通过glBindBuffer即可使用顶点数据;
如果想每帧都上传顶点数据亦可以。(不推荐)

  • glUniform常量赋值在编译链接完成顶点着色器后,可以设置着色器里面用到常量;

2、加载视频;

  • loadAsset创建视频源,并用loadValuesAsynchronouslyForKeys加载轨道信息;
  • createAssetReader创建Reader,并设置读取的格式与轨道目标;
  • processAsset开始Reader,并启动CADisplayLink开始读取视频帧;

通过mReaderVideoTrackOutput的copyNextSampleBuffer可以获取到下一帧的视频信息;
通过CMSampleBufferGetImageBuffer可以获取到CMSampleBuffer里面的像素缓存pixelBuffer,将其传给GLView用于配置纹理;

    CMSampleBufferRef sampleBuffer = [self.mReaderVideoTrackOutput copyNextSampleBuffer];
    CVPixelBufferRef pixelBuffer = CMSampleBufferGetImageBuffer(sampleBuffer);

3、配置纹理;

  • 通过CVBufferGetAttachment获取pixelBuffer的颜色空间格式,决定使用的颜色转换矩阵,用于下一步的YUV到RGB颜色空间的转换;
  • 通过glActiveTexture启用纹理,用
    CVOpenGLESTextureCacheCreateTextureFromImage创建纹理,再glBindTexture绑定纹理,设置好纹理格式;

CVOpenGLESTextureCacheCreateTextureFromImage创建的亮度纹理为frameHeight * frameWidth,格式为GL_LUMINANCE
CVOpenGLESTextureCacheCreateTextureFromImage创建的亮度纹理为frameHeight/2 * frameWidth/2,格式为GL_LUMINANCE_ALPHA

思考0:为何要使用CV?是否可以不使用CV直接读取纹理信息?

4、YUV到RGB颜色空间的转换;

YUV颜色空间由亮度+色度组成,GPU支持的RGB的颜色空间,故而需要进行一次转换。
下面是demo用到的颜色转换矩阵:

const GLfloat kColorConversion601FullRange[] = {
    1.0,    1.0,    1.0,
    0.0,    -0.343, 1.765,
    1.4,    -0.711, 0.0,
};

注意:颜色转换和顶点变换都是通过矩阵来计算。

5、球体渲染

简单介绍下全景视频的原理:
通过多个摄像机录制多方向的视频,通过投影计算,存储到一个视频中;
将视频渲染到球面上,通过摄像机的位置与朝向,计算每次能显示的内容并绘制到屏幕。如下图:


这就涉及到两个问题:

  • 将全景的视频信息存储在二维的视频里面;
  • 将二维的视频还原成全景的视频信息。
    (摄像机的位置和朝向计算看下面)

思考1:全景视频显示效果与普通视频有何区别?为什么?

球面到2D视频的展开


假设地球被围在一中空的圆柱里,其基准纬线与圆柱相切(赤道)接触,然后再假想地球中心有一盏灯,把球面上的图形投影到圆柱体上,再把圆柱体展开,得到投影。

越靠近画面的TOP和BOTTOM,图像的扭曲效果就越严重。上图还看不太出来,看看下图。


思考2:是否存在没有扭曲效果的全景显示?

2D视频到球面的显示
之前的教程有介绍过,点这里
下图是一张展开了的地球图像


下图是按照球体的顶点数据进行渲染

6、视角变化

球的圆心在原点,摄像机的所在也是原点,如下图。



球坐标系(r,θ,φ)与直角坐标系(x,y,z)的转换关系:
x=rsinθcosφ
y=rsinθsinφ
z=rcosθ


思考

思考0:视频的纹理创建、销毁非常频繁,并且纹理普遍较大,CV对纹理的创建和缓存有针对的优化,故而在处理视频帧的时候推荐通过CV来处理纹理(图像不行)。
如果不是用CV创建纹理,可以通过CVPixelBufferGetBaseAddress,拿到pixelBuffer的像素指针p;p的起始是亮度纹理,p加上亮度纹理的偏移量(frameWidth * frameHeight)之后是色度纹理。

思考1:全景视频带有明显的扭曲效果。因为是把2D平面的纹理渲染到球面上,故而带有扭曲效果。

思考2:存在。天空盒可以做到。天空盒

扩展

1、投影方式

Equisolid投影
Mercator投影

2、录制难点

同步、角度、分屏(双倍设备)

和VR的区别。全景+双屏。

总结

demo的起因是群里和徐杰聊天的时候说到最近看到一个全景视频直播,想起以前自己曾想过做一个全景图像,结果因为不懂CV和AVFoundation、没有球体的顶点数据而放弃。
刚好他有一个视频源,就要过来再试试。
结果这次的demo只花一天的时间就做完了,第二天的时间都是微调手指触摸的体验。
实现过程中遇到一些坑,但是在分析完数据之后也马上解决,一次很好的实践体验。
篇幅有限,代码在这里,欢迎star、fork。疑问请留言。

相关文章

网友评论

  • 月咏蝴蝶:你好,我把全景图显示出来之后,想在球体上面再盖一个图,但是不知道转换过后的球体顶点,我该怎么实现?
    月咏蝴蝶:@落影loyinglin 谢谢回复,我刚学习OpenGL不久,模型工具支持的 加载3D模型么?
    落影loyinglin:@月咏蝴蝶 考虑在球体的表面加图形,这个需要模型工具支持。
  • IceMaple_950c:把你写好的拖进我的工程着色变成红色的,请问大神该如何破?
  • 过过过客:写的很好 ,现在正在研究这个东西 , 做VR全景视频播放的 ,老大说要有 暴风魔镜的功能, 要有单屏感应 分屏感应 和单屏触摸的功能, 然后就是 捕获到某个焦点 ,app可以进行相对应的操作的功能, 看了这个感觉很实用, 捕获焦点这个功能 可以提供点思路么
    落影loyinglin:@过过过客 捕获焦点是指什么?
  • 568b3a3c7018:大神,项目需求让根据CAD图绘制2D/3D地图,这个可以实现吧?如果是简单的2D地图,按照您的教程,看到哪里就可以差不多实现了?
    落影loyinglin:@老衲的怨气 内容不多2个星期能学完
    568b3a3c7018:@落影loyinglin 不复杂,目前就做一个办公室的室内地图,我现在刚会绘制三角形和给三角形添加纹理,知识晦涩难懂,唉,努力学习吧,买的OpenGL超级宝典和OpenGL开发指南:iOS卷。给缓存设置数据那一块(glGen GlBind ...),好多参数都不懂什么意思。。。感觉快爆炸了
    落影loyinglin:@老衲的怨气 cad里面的数据是什么格式? 如果数据不复杂,懂顶点缓存 和 纹理 就能绘制
  • 学习路上一个远行者:你好,我是做iOS,现在想学一下OpenGL SE .所以想请教一下能一个建议吗?我应该看那些书来进行入门。谢谢
    落影loyinglin:@学习路上一个远行者 图形图像渲染。UIVIEW 就是用这个渲染
    学习路上一个远行者:@落影loyinglin 嗯嗯,好的,现在OpenGL Se 怎么样啊?大神,一般用来干嘛:smile::smile:
    落影loyinglin:@学习路上一个远行者 opengl超级宝典 opengl es iOS卷
  • 我的大名叫小爱:VR这个赞
    落影loyinglin:@我的大名叫小爱 这个是全景,vr要加双屏。
  • 旅行的光:大神,最近看到你发布了很多有关图像方面的文章。我最近也在看有关OpenGL的内容,我做了一个简单的播放器,接收tcp传过来的数据。通过ffmpeg 对h264进行解码。我现在的显示方法是通过rgb转uiimage显示图片的方式播放。但是我觉得还是要用yuv在OpenGL上绘图比较好。你有没有这方面的经验。另外我学习OpenGL感到有些难,也没有太多人交流。能否加个QQ请教一下。谢谢!
    落影loyinglin:@旅行的光 看私信

本文标题:OpenGL ES实践教程(四)VR全景视频播放

本文链接:https://www.haomeiwen.com/subject/zdoasttx.html