美文网首页
GPUImage详细解析

GPUImage详细解析

作者: 辉辉岁月 | 来源:发表于2021-11-22 11:43 被阅读0次

    GPUImage详细解析(一)
    上一篇介绍的是GPUImageFramebufferGPUImageFilter
    简单回顾一下:

    • GPUImageFilter就是用来接收源图像,通过自定义的顶点、片元着色器来渲染新的图像,并在绘制完成后通知响应链的下一个对象。
    • GPUImageFramebuffer就是用来管理纹理缓存的格式与读写帧缓存的buffer。

    这一篇介绍的是GPUImageVideoCameraGPUImageView

    GPUImageVideoCamera

    GPUImageVideoCamera是GPUImageOutput的子类,提供来自摄像头的图像数据作为源数据,一般是响应链的源头。

    1、视频图像采集 :AVCaptureSession

    GPUImage使用AVFoundation框架来获取视频。
    AVCaptureSession类从AV输入设备的采集数据到制定的输出。
    为了实现实时的图像捕获,要实现AVCaptureSession类,添加合适的输入(AVCaptureDeviceInput)和输出(比如 AVCaptureMovieFileOutput)
    调用startRunning开始输入到输出的数据流,调用stopRunning停止数据流。
    需要注意的是startRunning函数会花费一定的时间,所以不能在主线程(UI线程)调用,防止卡顿。
    sessionPreset 属性可以自定义一些设置。
    特殊的选项比如说高帧率,可以通过 AVCaptureDevice来设置。
    AVCaptureSession使用的简单示例:

    _captureSession = [[AVCaptureSession alloc] init];
        [_captureSession beginConfiguration];
    // 中间可以实现关于session属性的设置
        [_captureSession commitConfiguration];
    
    
    • AVCaptureVideoDataOutput
      AVCaptureVideoDataOutputAVCaptureOutput的子类,用来处理从摄像头采集的未压缩或者压缩过的图像帧。
      通过captureOutput:didOutputSampleBuffer:fromConnection: delegate,可以访问图像帧。
      通过下面这个方法,可以设置delegate。
    - (void)setSampleBufferDelegate:
    (id<AVCaptureVideoDataOutputSampleBufferDelegate>)sampleBufferDelegate 
    queue:(dispatch_queue_t)sampleBufferCallbackQueue;
    
    

    需要注意的是,当一个新的视频图像帧被采集后,它会被传送到output,调用这里设置的delegate。所有的delegate函数会在这个queue中调用。如果队列被阻塞,新的图像帧到达后会被自动丢弃(默认alwaysDiscardsLateVideoFrames = YES)。这允许app处理当前的图像帧,不需要去管理不断增加的内存,因为处理速度跟不上采集的速度,等待处理的图像帧会占用内存,并且不断增大
    必须使用同步队列处理图像帧,保证帧的序列是顺序的。

    • frameRenderingSemaphore 帧渲染的信号量
      下面有一个这样的调用,用于等待处理完一帧后,再接着处理下一帧。
            if (dispatch_semaphore_wait(frameRenderingSemaphore, DISPATCH_TIME_NOW) != 0)
            {
                return;
            }
            runAsynchronouslyOnVideoProcessingQueue(^{
                  dispatch_semaphore_signal(frameRenderingSemaphore);
            });
    
    
    • rotateCamera
      前后摄像头翻转:更改videoInput的设置。

    2、颜色空间:YUV

    YUV是被欧洲电视系统所采用的一种颜色编码方法。
    采用YUV色彩空间的重要性是它的亮度信号Y色度信号U、V是分离的。如果只有Y信号分量而没有U、V分量,那么这样表示的图像就是黑白灰度图像。彩色电视采用YUV空间正是为了用亮度信号Y解决彩色电视机与黑白电视机的兼容问题,使黑白电视机也能接收彩色电视信号。

    YCbCr或Y'CbCr有的时候会被写作:YCBCR或是Y'CBCR,是色彩空间的一种,通常会用于影片中的影像连续处理,或是数字摄影系统中。Y'为颜色的亮度(luma)成分、而CB和CR则为蓝色和红色的浓度偏移量成份。
    YUV主要用于优化彩色视频信号的传输,使其向后相容老式黑白电视。与RGB视频信号传输相比,它最大的优点在于只需占用极少的频宽(RGB要求三个独立的视频信号同时传输)。

    CbCr 则是在世界数字组织视频标准研制过程中作为ITU - R BT.601 建议的一部分,其实是YUV经过缩放和偏移的翻版。其中Y与YUV 中的Y含义一致,Cb,Cr 同样都指色彩,只是在表示方法上不同而已。在YUV 家族中,YCbCr 是在计算机系统中应用最多的成员,其应用领域很广泛,JPEG、MPEG均采用此格式。一般人们所讲的YUV大多是指YCbCr。YCbCr 有许多取样格式,如4∶4∶4,4∶2∶2,4∶1∶1 和4∶2∶0。
    百度百科的介绍
    YUV数据格式-图文详解
    GPUImage中的YUV
    GLProgram *yuvConversionProgram; 将YUV颜色空间转换成RGB颜色空间的GLSL。
    CVPixelBufferGetPlaneCount()返回缓冲区的平面数。
    通过CVOpenGLESTextureCacheCreateTextureFromImage()创建两个纹理luminanceTextureRef(亮度纹理)和chrominanceTextureRef(色度纹理)。
    convertYUVToRGBOutput()把YUV颜色空间的纹理转换成RGB颜色空间的纹理
    顶点着色器-通用kGPUImageVertexShaderString
    片元着色器:
    1、kGPUImageYUVFullRangeConversionForLAFragmentShaderString
    2、kGPUImageYUVVideoRangeConversionForLAFragmentShaderString
    区别在不同的格式
    video-range (luma=[16,235] chroma=[16,240])
    full-range (luma=[0,255] chroma=[1,255])

    3、纹理绘制

    glActiveTextue 并不是激活纹理单元,而是选择当前活跃的纹理单元。每一个纹理单元都有GL_TEXTURE_1D, 2D, 3D 和 CUBE_MAP。

        glActiveTexture(GL_TEXTURE1);
        glGenTextures(1, &_texture);
        glBindTexture(GL_TEXTURE_2D, _texture);
    
    

    SO的详细介绍

    GPUImageView

    GPUImageView是响应链的终点,一般用于显示GPUImage的图像。

    1、填充模式

    GPUImageFillModeType fillMode图像的填充模式。
    sizeInPixels 像素区域大小。
    recalculateViewGeometry() 重新计算图像顶点位置数据。
    AVMakeRectWithAspectRatioInsideRect() 在保证宽高比不变的前提下,得到一个尽可能大的矩形。
    如果是kGPUImageFillModeStretch
    图像拉伸,直接使宽高等于1.0即可,原图像会直接铺满整个屏幕。

    如果是kGPUImageFillModePreserveAspectRatio
    保持原宽高比,并且图像不超过屏幕。那么以当前屏幕大小为准。
    widthScaling = insetRect.size.width / currentViewSize.width;

    如果是kGPUImageFillModePreserveAspectRatioAndFill
    保持原宽高比,并且图像要铺满整个屏幕。那么图像大小为准。
    widthScaling = currentViewSize.height / insetRect.size.height;

    imageVertices存放着顶点数据,上面的修改都会存放在这个数组。

    2、OpenGL ES绘制

    - (void)newFrameReadyAtTime:(CMTime)frameTime atIndex:(NSInteger)textureIndex;源图像已经准备好,开始绘制。
    setDisplayFramebuffer()会绑定GPUImageView的帧缓存,同时调试视口大小为view的大小。
    glActiveTexture上面已经介绍过,是选择一个纹理单元。先选择纹理单元4,然后把源图像数据绑定到GL_TEXTURE_2D的位置上。最后告诉片元着色器,纹理单元是4。

            glActiveTexture(GL_TEXTURE4);
            glBindTexture(GL_TEXTURE_2D, [inputFramebufferForDisplay texture]);
            glUniform1i(displayInputTextureUniform, 4);
    
    

    这两行是分别绑定顶点坐标数据和纹理坐标数据。

            glVertexAttribPointer(displayPositionAttribute, 2, GL_FLOAT, 0, 0, imageVertices);
            glVertexAttribPointer(displayTextureCoordinateAttribute, 2, GL_FLOAT, 0, 0, [GPUImageView textureCoordinatesForRotation:inputRotation]);
    
    

    这两行是设定输入的源图像数据缓存,并且对缓存加锁。

        inputFramebufferForDisplay = newInputFramebuffer;
        [inputFramebufferForDisplay lock];
    
    

    在准备好着色器、纹理data、顶点位置坐标和纹理坐标后,就可以调用
    glDrawArrays(GL_TRIANGLE_STRIP, 0, 4);绘制图像。

    demo

    这里有一个简单的示例,介绍如何用GPUImageVideoCamera采集图像并且用GPUImageView显示出来。
    十分简单,核心代码不过十行。

    相关文章

      网友评论

          本文标题:GPUImage详细解析

          本文链接:https://www.haomeiwen.com/subject/ttxbtrtx.html