美文网首页
VideoToolBox视频编码

VideoToolBox视频编码

作者: 懿轩加油 | 来源:发表于2019-07-16 16:23 被阅读0次

    一:封面的获取

    1:服务器分发给你(直播)(支持回放)
    2:客户端:默认第一帧视频就是封面(小视频)
    3:客户端从视频中选择合适的一帧作为封面(小视频)

    直播架构.png APPServer.png 泛娱乐直播架构图.png 实时互动直播架构图.png

    回源鉴权:回调地址作用

    当我们推流服务时服务商向我们的网站(服务器)发送请求,去验证此推流地址是否为我们自己网站推出去的推流地址,如果是我们推出去的,要给服务商返回json数据code=200,证明是我们自己的用户推出去的,这是服务商接收到json数据code=200,此刻鉴权成功,服务商允许我们推流和拉流,如果不是我们自己推出去的,给服务商返回json数据code=500,此刻鉴权失败,服务商不允许推流,更不可以拉流,这样的防盗链相对来将更加安全,有效防止流量被他人盗用,

    直播性能指标首屏耗时

    指第一次点击播放后,肉眼看到画面所等待的时间,技术上指播放器解码第一帧渲染显示画面所花的耗时,通常说的秒开,指点击播放后,一秒内即可看到播放画面,首屏打开越快,用户体验越好;

    音视频开发流程图.png 视频到低是什么.png 编码到低是什么.png 编码发生了什么.png

    二:videoToolBox的工作流程

    videoToolBox是基于CoreFoundation库函数,C语言
    流程:创建session->设置编码相关参数->开始编码->循环输入源数据(yuv类型的数据,直接从摄像头获取)->获取编码后的H264数据->编码结束

    CMSampleBuffer数据结构.png 编码的输入和输出.png H264文件格式.png 码率计算公式.png

    什么是sps和pps

    sps:序列参数集sps(Sequence Parameter Sets)
    pps: 图像参数集pps:(Picture Parameter Sets)

    sps&pps信息参数

    编码所用的Profile level 图像的宽和高,deblock录波器
    H264码流中第一个NALU是sps&pps

    序列参数集sps.png 序列参数集pps.png 帧类型.png sps.png pps和I帧.png FFmpeg命令.png

    三:videoToolBox编码

    1:初始化
    dispatch_sync(cEncodeQueue, ^{
            
            frameID = 0;
            
            int width = 480,height = 640;
            
            //1.调用VTCompressionSessionCreate创建编码session
            //参数1:NULL 分配器,设置NULL为默认分配
            //参数2:width
            //参数3:height
            //参数4:编码类型,如kCMVideoCodecType_H264
            //参数5:NULL encoderSpecification: 编码规范。设置NULL由videoToolbox自己选择
            //参数6:NULL sourceImageBufferAttributes: 源像素缓冲区属性.设置NULL不让videToolbox创建,而自己创建
            //参数7:NULL compressedDataAllocator: 压缩数据分配器.设置NULL,默认的分配
            //参数8:回调  当VTCompressionSessionEncodeFrame被调用压缩一次后会被异步调用.注:当你设置NULL的时候,你需要调用VTCompressionSessionEncodeFrameWithOutputHandler方法进行压缩帧处理,支持iOS9.0以上
            //参数9:outputCallbackRefCon: 回调客户定义的参考值
            //参数10:compressionSessionOut: 编码会话变量
            OSStatus status = VTCompressionSessionCreate(NULL, width, height, kCMVideoCodecType_H264, NULL, NULL, NULL, didCompressH264, (__bridge void *)(self), &cEncodeingSession);
            
            NSLog(@"H264:VTCompressionSessionCreate:%d",(int)status);
            
            if (status != 0) {
                
                NSLog(@"H264:Unable to create a H264 session");
                return ;
            }
            
            //设置实时编码输出(避免延迟)
            VTSessionSetProperty(cEncodeingSession, kVTCompressionPropertyKey_RealTime, kCFBooleanTrue);
            VTSessionSetProperty(cEncodeingSession, kVTCompressionPropertyKey_ProfileLevel,kVTProfileLevel_H264_Baseline_AutoLevel);
            
            //是否产生B帧(因为B帧在解码时并不是必要的,是可以抛弃B帧的)
            VTSessionSetProperty(cEncodeingSession, kVTCompressionPropertyKey_AllowFrameReordering, kCFBooleanFalse);
            
            //设置关键帧(GOPsize)间隔,GOP太小的话图像会模糊
            int frameInterval = 10;
            CFNumberRef frameIntervalRaf = CFNumberCreate(kCFAllocatorDefault, kCFNumberIntType, &frameInterval);
            VTSessionSetProperty(cEncodeingSession, kVTCompressionPropertyKey_MaxKeyFrameInterval, frameIntervalRaf);
            
            //设置期望帧率,不是实际帧率
            int fps = 10;
            CFNumberRef fpsRef = CFNumberCreate(kCFAllocatorDefault, kCFNumberIntType, &fps);
            VTSessionSetProperty(cEncodeingSession, kVTCompressionPropertyKey_ExpectedFrameRate, fpsRef);
            
            //码率的理解:码率大了话就会非常清晰,但同时文件也会比较大。码率小的话,图像有时会模糊,但也勉强能看
            //码率计算公式,参考印象笔记
            //设置码率、上限、单位是bps
            int bitRate = width * height * 3 * 4 * 8;
            CFNumberRef bitRateRef = CFNumberCreate(kCFAllocatorDefault, kCFNumberSInt32Type, &bitRate);
            VTSessionSetProperty(cEncodeingSession, kVTCompressionPropertyKey_AverageBitRate, bitRateRef);
            
            //设置码率,均值,单位是byte
            int bigRateLimit = width * height * 3 * 4;
            CFNumberRef bitRateLimitRef = CFNumberCreate(kCFAllocatorDefault, kCFNumberSInt32Type, &bigRateLimit);
            VTSessionSetProperty(cEncodeingSession, kVTCompressionPropertyKey_DataRateLimits, bitRateLimitRef);
            //开始编码=    VTCompressionSessionPrepareToEncodeFrames(cEncodeingSession);  
        });
    
    2:视频流的获取
    #pragma mark - AVCaptureVideoDataOutputSampleBufferDelegate
    //AV Foundation 获取到视频流
    -(void)captureOutput:(AVCaptureOutput *)captureOutput didOutputSampleBuffer:(CMSampleBufferRef)sampleBuffer fromConnection:(AVCaptureConnection *)connection
    {
        //开始视频录制,获取到摄像头的视频帧,传入encode 方法中
        dispatch_sync(cEncodeQueue, ^{
            [self encode:sampleBuffer];
        });
    }
    - (void) encode:(CMSampleBufferRef )sampleBuffer
    {
        //拿到每一帧未编码数据
        CVImageBufferRef imageBuffer = (CVImageBufferRef)CMSampleBufferGetImageBuffer(sampleBuffer);
        
        //设置帧时间,如果不设置会导致时间轴过长。
        CMTime presentationTimeStamp = CMTimeMake(frameID++, 1000);
        
        VTEncodeInfoFlags flags;
        
        //参数1:编码会话变量
        //参数2:未编码数据
        //参数3:获取到的这个sample buffer数据的展示时间戳。每一个传给这个session的时间戳都要大于前一个展示时间戳.
        //参数4:对于获取到sample buffer数据,这个帧的展示时间.如果没有时间信息,可设置kCMTimeInvalid.
        //参数5:frameProperties: 包含这个帧的属性.帧的改变会影响后边的编码帧.
        //参数6:ourceFrameRefCon: 回调函数会引用你设置的这个帧的参考值.
        //参数7:infoFlagsOut: 指向一个VTEncodeInfoFlags来接受一个编码操作.如果使用异步运行,kVTEncodeInfo_Asynchronous被设置;同步运行,kVTEncodeInfo_FrameDropped被设置;设置NULL为不想接受这个信息.
        
        OSStatus statusCode = VTCompressionSessionEncodeFrame(cEncodeingSession, imageBuffer, presentationTimeStamp, kCMTimeInvalid, NULL, NULL, &flags);
        
        if (statusCode != noErr) {
            
            NSLog(@"H.264:VTCompressionSessionEncodeFrame faild with %d",(int)statusCode);
            
            VTCompressionSessionInvalidate(cEncodeingSession);
            CFRelease(cEncodeingSession);
            cEncodeingSession = NULL;
            return;
        }
        NSLog(@"H264:VTCompressionSessionEncodeFrame Success");
    }
    
    3:编码完成回调AVCaptureVideoDataOutputSampleBufferDelegate
    /*
        1.H264硬编码完成后,回调VTCompressionOutputCallback
        2.将硬编码成功的CMSampleBuffer转换成H264码流,通过网络传播
        3.解析出参数集SPS & PPS,加上开始码组装成 NALU。提现出视频数据,将长度码转换为开始码,组成NALU,将NALU发送出去。
     */
    void didCompressH264(void *outputCallbackRefCon, void *sourceFrameRefCon, OSStatus status, VTEncodeInfoFlags infoFlags, CMSampleBufferRef sampleBuffer)
    {
        NSLog(@"didCompressH264 called with status %d infoFlags %d",(int)status,(int)infoFlags);
        //状态错误
        if (status != 0) {
            return;
        }
        //没准备好
        if (!CMSampleBufferDataIsReady(sampleBuffer)) {
            
            NSLog(@"didCompressH264 data is not ready");
            return;
        }
        ViewController *encoder = (__bridge ViewController *)outputCallbackRefCon;
        
        //判断当前帧是否为关键帧
        /* 分步骤判断
        CFArrayRef array = CMSampleBufferGetSampleAttachmentsArray(sampleBuffer, true);
        CFDictionaryRef dic = CFArrayGetValueAtIndex(array, 0);
        bool isKeyFrame = !CFDictionaryContainsKey(dic, kCMSampleAttachmentKey_NotSync);
        */
        bool keyFrame = !CFDictionaryContainsKey((CFArrayGetValueAtIndex(CMSampleBufferGetSampleAttachmentsArray(sampleBuffer, true), 0)), kCMSampleAttachmentKey_NotSync);
        
        //判断当前帧是否为关键帧
        //获取sps & pps 数据 只获取1次,保存在h264文件开头的第一帧中
        //sps(sample per second 采样次数/s),是衡量模数转换(ADC)时采样速率的单位
        //pps()
        if (keyFrame) {
            
            //图像存储方式,编码器等格式描述
            CMFormatDescriptionRef format = CMSampleBufferGetFormatDescription(sampleBuffer);
            
            //sps
            size_t sparameterSetSize,sparameterSetCount;
            const uint8_t *sparameterSet;
            OSStatus statusCode = CMVideoFormatDescriptionGetH264ParameterSetAtIndex(format, 0, &sparameterSet, &sparameterSetSize, &sparameterSetCount, 0);
            
            if (statusCode == noErr) {
                
                //获取pps
                size_t pparameterSetSize,pparameterSetCount;
                const uint8_t *pparameterSet;
                
                //从第一个关键帧获取sps & pps
                OSStatus statusCode = CMVideoFormatDescriptionGetH264ParameterSetAtIndex(format, 1, &pparameterSet, &pparameterSetSize, &pparameterSetCount, 0);
                
                //获取H264参数集合中的SPS和PPS
                if (statusCode == noErr)
                {
                    //Found pps & sps
                    NSData *sps = [NSData dataWithBytes:sparameterSet length:sparameterSetSize];
                    NSData *pps = [NSData dataWithBytes:pparameterSet length:pparameterSetSize];
                    
                    if(encoder)
                    {
                        [encoder gotSpsPps:sps pps:pps];
                    }
                }
            }
        } 
        CMBlockBufferRef dataBuffer = CMSampleBufferGetDataBuffer(sampleBuffer);
        size_t length,totalLength;
        char *dataPointer;
        OSStatus statusCodeRet = CMBlockBufferGetDataPointer(dataBuffer, 0, &length, &totalLength, &dataPointer);
        if (statusCodeRet == noErr) {
            size_t bufferOffset = 0;
            static const int AVCCHeaderLength = 4;//返回的nalu数据前4个字节不是001的startcode,而是大端模式的帧长度length
            
            //循环获取nalu数据
            while (bufferOffset < totalLength - AVCCHeaderLength) {
                
                uint32_t NALUnitLength = 0;
                
                //读取 一单元长度的 nalu
                memcpy(&NALUnitLength, dataPointer + bufferOffset, AVCCHeaderLength);
                
                //从大端模式转换为系统端模式
                NALUnitLength = CFSwapInt32BigToHost(NALUnitLength);
                
                //获取nalu数据
                NSData *data = [[NSData alloc]initWithBytes:(dataPointer + bufferOffset + AVCCHeaderLength) length:NALUnitLength];
                //将nalu数据写入到文件
                [encoder gotEncodedData:data isKeyFrame:keyFrame];
                //move to the next NAL unit in the block buffer
                //读取下一个nalu 一次回调可能包含多个nalu数据
                bufferOffset += AVCCHeaderLength + NALUnitLength;
                 
            }
        }
    }
    
    4:第一帧写入 sps & pps
    - (void)gotSpsPps:(NSData*)sps pps:(NSData*)pps
    {
        NSLog(@"gotSpsPp %d %d",(int)[sps length],(int)[pps length]);
        const char bytes[] = "\x00\x00\x00\x01";
        size_t length = (sizeof bytes) - 1; //为什么-1:因为有/n
        NSData *ByteHeader = [NSData dataWithBytes:bytes length:length];=
        [fileHandele writeData:ByteHeader];
        [fileHandele writeData:sps];
        [fileHandele writeData:ByteHeader];
        [fileHandele writeData:pps];
    }
    
    5:videoToolBox结束编码
    -(void)endVideoToolBox
    {
        VTCompressionSessionCompleteFrames(cEncodeingSession, kCMTimeInvalid);
        VTCompressionSessionInvalidate(cEncodeingSession);
        CFRelease(cEncodeingSession);
        cEncodeingSession = NULL;   
    }
    
    6:fileHandele
    //文件写入沙盒
     NSString *filePath = [[NSSearchPathForDirectoriesInDomains(NSDocumentDirectory,NSUserDomainMask,YES)lastObject]stringByAppendingPathComponent:@"cc_video.h264"];
       // NSString *filePath = [NSHomeDirectory()stringByAppendingPathComponent:@"/Documents/cc_video.h264"];
        //先移除已存在的文件
        [[NSFileManager defaultManager] removeItemAtPath:filePath error:nil];
        //新建文件
        BOOL createFile = [[NSFileManager defaultManager] createFileAtPath:filePath contents:nil attributes:nil];
        if (!createFile) {
            NSLog(@"create file failed");
        }else
        {
            NSLog(@"create file success");
        }
        NSLog(@"filePaht = %@",filePath);
        fileHandele = [NSFileHandle fileHandleForWritingAtPath:filePath];
    

    7:头数据写入

    - (void)gotEncodedData:(NSData*)data isKeyFrame:(BOOL)isKeyFrame
    {
        NSLog(@"gotEncodeData %d",(int)[data length]);
        if (fileHandele != NULL) {
            //添加4个字节的H264 协议 start code 分割符
            //一般来说编码器编出的首帧数据为PPS & SPS
            //H264编码时,在每个NAL前添加起始码 0x000001,解码器在码流中检测起始码,当前NAL结束。
            /*
             为了防止NAL内部出现0x000001的数据,h.264又提出'防止竞争 emulation prevention"机制,在编码完一个NAL时,如果检测出有连续两个0x00字节,就在后面插入一个0x03。当解码器在NAL内部检测到0x000003的数据,就把0x03抛弃,恢复原始数据。
             总的来说H264的码流的打包方式有两种,一种为annex-b byte stream format 的格式,这个是绝大部分编码器的默认输出格式,就是每个帧的开头的3~4个字节是H264的start_code,0x00000001或者0x000001。
             另一种是原始的NAL打包格式,就是开始的若干字节(1,2,4字节)是NAL的长度,而不是start_code,此时必须借助某个全局的数据来获得编 码器的profile,level,PPS,SPS等信息才可以解码。
             */
            const char bytes[] ="\x00\x00\x00\x01";
            //长度
            size_t length = (sizeof bytes) - 1;
            //头字节
            NSData *ByteHeader = [NSData dataWithBytes:bytes length:length];
            //写入头字节
            [fileHandele writeData:ByteHeader];
            //写入H264数据
            [fileHandele writeData:data];
        }
    }
    

    相关文章

      网友评论

          本文标题:VideoToolBox视频编码

          本文链接:https://www.haomeiwen.com/subject/krzzkctx.html