iOS视频直播初窥:高仿<喵播APP>

作者: Monkey_ALin | 来源:发表于2016-07-06 00:20 被阅读70595次

    效果图

    gif1
    gif2

    由于licecap录制的GIF失帧太严重, 都模糊掉了, 再放两张高清截图

    png1
    png2

    前言

    今年三月份,斗鱼腾讯领投的1亿美元融资的消息被各大平台报道转载,在电竞、泛娱乐已是热门投资的当下,网络直播平台自然也获得了各界的关注。盗用两张关于游戏直播的趋势图

    游戏直播规模 游戏直播规模

    这还仅仅是游戏直播这块的蛋糕.直播行业的竞争会越来越激烈, 不管是主播还是直播平台都面临着激烈的竞争, 当然直播行业也会越来越规范, 直播元素也越来越多.

    视频直播初窥

    视频直播,可以分为 采集,前处理,编码,传输, 服务器处理,解码,渲染

    • 采集: iOS系统因为软硬件种类不多, 硬件适配性比较好, 所以比较简单. 而Android端市面上机型众多, 要做些机型的适配工作.PC端是最麻烦的, 各种奇葩摄像头驱动.所以现在很多的中小型直播平台, 都放弃了PC的直播, 更有一些直播平台只做iOS端的视频直播.

    • 前处理: 美颜算法,视频的模糊效果, 水印等都是在这个环节做. 目前iOS端最著名开源框架的毫无疑问就是GPUImage.其中内置了125种渲染效果, 还支持各种脚本自定义. 我高仿的喵播的美颜效果也是基于GPUImage的.

    • 编码: 重难点在于要在分辨率,帧率,码率,GOP等参数设计上找到最佳平衡点。iOS8之后, Apple开放了VideoToolbox.framework, 可以直接进行硬编解码, 这也是为什么现在大多数直播平台最低只支持到iOS8的原因之一. iOS端硬件兼容性比较好, 可以直接采取硬编码. 而Android得硬编码又是一大坑.

    • 传输: 这块一般都是交给CDN服务商. CDN只提供带宽和服务器之间的传输, 发送端和接收端的网络连接抖动缓存还是要自己实现的.目前国内最大的CDN服务商应该是网宿.

    • 服务器处理: 需要在服务器做一些流处理工作, 让推送上来的流适配各个平台各种不同的协议, 比如:RTMP,HLS,FLV...

    • 解码和渲染: 也就即音视频的播放. 解码毫无疑问也必须要硬解码. iOS端兼容较好, Android依然大坑.这块的难点在于音画同步, 目前很多直播平台这块是硬伤.国内比较好的开源项目应该是B站开源的<a href="https://github.com/Bilibili/ijkplayer">ijkplayer </a>. 斗鱼就是基于<a href="https://github.com/Bilibili/ijkplayer">ijkplayer </a>的, 本项目也是基于<a href="https://github.com/Bilibili/ijkplayer">ijkplayer </a>的.

    技术坑 : 降噪, 音频解码器, 蓝牙适配, 回声消除, 信令控制, 登录, 鉴权, 权限管理, 状态管理, 应用消息, 消息推送, 礼物系统, 即时聊天, 支付系统, 统计系统, 数据库, 缓存, 分布式文件存储, 消息队列, 运维系统等等大小不一的坑等你来填!!!

    资金坑 : 以带宽为例, 2万人同时在线, 手机码率在600KB, 每个月的带宽费用至少在30万左右. 根据欢聚时代(YY)15年四季度财务报, 他们的带宽成本为人民币1.611亿元, 折合每月5000万+. 人力成本+渠道支出和其他支出就不详谈了.

    社会坑: 还得每时每刻与各种黑暗势力斗争, 包括色情, 广告, 刷小号, 刷充值, 告侵权, DDos...(我反编译喵播的官方APP, 他们的项目名就叫Shehui, O(∩_∩)O哈哈~)

    项目下载地址

    <a href="https://github.com/SunLiner/MiaowShow">GitHub下载地址</a>

    前期准备

    项目主要是基于<a href="https://github.com/Bilibili/ijkplayer">ijkplayer </a>的. 最好是打包成framework. 原本我准备写一个打包教程, 不过后来在简书上发现了一篇特别详细的打包blog, 分享给大家: <a href="http://www.jianshu.com/p/1f06b27b3ac0">http://www.jianshu.com/p/1f06b27b3ac0</a>.

    如果你根据教程打包失败了(当然这种几率比较小), 我这还有一份我已经打包好的(Release版), 下载地址:
    链接:http://pan.baidu.com/s/1eRVetdK 密码:2dc0
    下载后, 直接解压即可.

    项目文件结构

    • Frameworks: 如果文件夹不存在, 点击classes选择Show in Finder, 新建一个即可, 将你打包的或者下载的framework拖入其中并拉进项目中. 你也可以自己建一个文件夹, 把这个Frameworks直接delete即可

    • Profile : 个人中心, 这里面只有一个ProfileController. 因为总写重复代码, 都写吐了, 这儿有兴趣的自己写一下吧, So easy...

    • Network : 关于网络连接的工具类. 关于网络的实时监控, 网络状态的切换, 网络请求的工具类都在这里面.

    • Other : 全局的常量. 当然你也可以在里面将文件结构更加细化.

    • Home : 包含最新主播, 最热直播, 关注的直播, 礼物排行榜等模块. 还有最重要的视频直播也在这里面了.

    • ShowTime :见名知意. 视频直播的前处理, 智能美颜和H264硬编码等都在这里面.

    • Main : UITabBarControllerUINavigationController的配置

    • Toos : 这儿命名有点不规范, 这里面放置的都是项目用到的分类

    • Login : 登录模块

    • Resource : 项目用到的资源文件

    项目详解

    • tip1: 判读网络类型.

    在观看直播的时候, 我们通常都是用WiFi或者3/4G(土豪级别的), 一般用户在进行网络切换的时候, 我们都要给出友善的提示, 告诉TA: 您的网络状态切换到了XX状态. 假设用户从WiFi切换到4G, 你的应用也没个提醒, 导致TA的流量归零甚至欠了运营商一屁股的钱, 我想你的APP的用户体验也就归零或者为负了.

    我们可以使用苹果的Reachability结合下面的代码实时监听网络状态的改变

    typedef NS_ENUM(NSUInteger, NetworkStates) {
        NetworkStatesNone, // 没有网络
        NetworkStates2G, // 2G
        NetworkStates3G, // 3G
        NetworkStates4G, // 4G
        NetworkStatesWIFI // WIFI
    };
    
    // 判断网络类型
    + (NetworkStates)getNetworkStates
    {
        NSArray *subviews = [[[[UIApplication sharedApplication] valueForKeyPath:@"statusBar"] valueForKeyPath:@"foregroundView"] subviews];
        // 保存网络状态
        NetworkStates states = NetworkStatesNone;
        for (id child in subviews) {
            if ([child isKindOfClass:NSClassFromString(@"UIStatusBarDataNetworkItemView")]) {
                //获取到状态栏码
                int networkType = [[child valueForKeyPath:@"dataNetworkType"] intValue];
                switch (networkType) {
                    case 0:
                       //无网模式
                        states = NetworkStatesNone;
                        break;
                    case 1:
                        states = NetworkStates2G;
                        break;
                    case 2:
                        states = NetworkStates3G;
                        break;
                    case 3:
                        states = NetworkStates4G;
                        break;
                    case 5:
                    {
                        states = NetworkStatesWIFI;
                    }
                        break;
                    default:
                        break;
                }
            }
        }
        //根据状态选择
        return states;
    }
    
    • tip2: 登录模块

    如果你多运行几次就会发现, 登录模块背景中播放的视频是2个视频每次随机播放一个的.并且是无限重复的, 也就是说只要你一直呆着登录界面, 就会单视频循环播放当前的视频. 这儿的登录只是几个按钮, 没有具体的登录逻辑, 随便点哪一个按钮都可以进入首页.

    我们需要监听视频, 是否播放完成.

    // 监听视频是否播放完成
        [[NSNotificationCenter defaultCenter] addObserver:self selector:@selector(didFinish) name:IJKMPMoviePlayerPlaybackDidFinishNotification object:nil];
    

    如果播放完成了, 让IJKFFMoviePlayerController再次play即可

    - (void)didFinish
    {
        // 播放完之后, 继续重播
        [self.player play];
    }
    
    • tip3: 首页
    首页

    这种效果相信很多人都看到过或者做过.我简单说一下我的做法(不一定是最佳的, 只是提供一个思路)

    一个父控制器HomeViewController+三个子控制器(最热/最新/关注. 每个控制器各自管理自己的业务逻辑, 高内聚低耦合). 重写HomeViewControllerloadView, 将self.view替换成UIScrollView. 将三个子控制器的view添加到UIScrollView上即可. 其他的效果实现, 请参照我的代码, 都有详细的中文注释.

    • tip4: 直播(面向观众端)
      这个是整个项目的重点之一了.这种直播的布局, 应该是比较主流的了. 我下载的好多直播类APP都是这个项目布局, 包括YY也是这种界面布局.这个里面涉及的东西比较多了, 三言两语真说不清.

    简单说一下已经实现的效果:
    A: 主播的直播
    B: 关联主播的视频直播, 默认是只有界面, 没有声音的. 点击该视图可以切换到此主播
    C: 下拉切换另一个主播, 这个功能是很常见的. 做法是直播控制器是一个UICollectionViewController, 只有一个cell, 且cell.frame就是self.collectionViewb.bounds. 我们进入直播控制器的时候, 其实是传进去一个关联主播数组, 每次下拉的时候, 就加载数组里面的主播
    D. 查看观众席的观众详情
    E. 查看主播详情
    F. 足迹: 粒子动画, 后面详解
    G. 弹幕: 点击最下方的工具栏第一个按钮可以开启/关闭弹幕, 后面详解
    ...

    • tip5: 粒子动画实现游客足迹
      粒子动画的layer是添加到播放器的view上面的. 下面代码有详细的注释
    CAEmitterLayer *emitterLayer = [CAEmitterLayer layer];
    // 发射器在xy平面的中心位置
    emitterLayer.emitterPosition = CGPointMake(self.moviePlayer.view.frame.size.width-50,self.moviePlayer.view.frame.size.height-50);
    // 发射器的尺寸大小
    emitterLayer.emitterSize = CGSizeMake(20, 20);
    // 渲染模式
    emitterLayer.renderMode = kCAEmitterLayerUnordered;
    // 开启三维效果
    //    _emitterLayer.preservesDepth = YES;
    NSMutableArray *array = [NSMutableArray array];
    // 创建粒子
    for (int i = 0; i<10; i++) {
        // 发射单元
        CAEmitterCell *stepCell = [CAEmitterCell emitterCell];
        // 粒子的创建速率,默认为1/s
        stepCell.birthRate = 1;
        // 粒子存活时间
        stepCell.lifetime = arc4random_uniform(4) + 1;
        // 粒子的生存时间容差
        stepCell.lifetimeRange = 1.5;
        // 颜色
        // fire.color=[[UIColor colorWithRed:0.8 green:0.4 blue:0.2 alpha:0.1]CGColor];
        UIImage *image = [UIImage imageNamed:[NSString stringWithFormat:@"good%d_30x30", i]];
        // 粒子显示的内容
        stepCell.contents = (id)[image CGImage];
        // 粒子的名字
        //            [fire setName:@"step%d", i];
        // 粒子的运动速度
        stepCell.velocity = arc4random_uniform(100) + 100;
        // 粒子速度的容差
        stepCell.velocityRange = 80;
        // 粒子在xy平面的发射角度
        stepCell.emissionLongitude = M_PI+M_PI_2;;
        // 粒子发射角度的容差
        stepCell.emissionRange = M_PI_2/6;
        // 缩放比例
        stepCell.scale = 0.3;
        [array addObject:stepCell];
    }
    
    emitterLayer.emitterCells = array;
    [self.moviePlayer.view.layer insertSublayer:emitterLayer below:self.catEarView.layer];
    
    • tip6: 弹幕
      弹幕使用的也是一个第三方轮子<a href="https://github.com/unash/BarrageRenderer">BarrageRenderer </a>. 这个开源项目的文档都是中文的, 用法也是很简单的.

      基本配置

     _renderer = [[BarrageRenderer alloc] init];
    // 设置弹幕的显示区域. 基于父控件的.
    _renderer.canvasMargin = UIEdgeInsetsMake(ALinScreenHeight * 0.3, 10, 10, 10);
    [self.contentView addSubview:_renderer.view];
    

    弹幕配置

    #pragma mark - 弹幕描述符生产方法
    /// 生成精灵描述 - 过场文字弹幕
    - (BarrageDescriptor *)walkTextSpriteDescriptorWithDirection:(NSInteger)direction
    {
        BarrageDescriptor * descriptor = [[BarrageDescriptor alloc]init];
        descriptor.spriteName = NSStringFromClass([BarrageWalkTextSprite class]);
        descriptor.params[@"text"] = self.danMuText[arc4random_uniform((uint32_t)self.danMuText.count)];
        descriptor.params[@"textColor"] = Color(arc4random_uniform(256), arc4random_uniform(256), arc4random_uniform(256));
        descriptor.params[@"speed"] = @(100 * (double)random()/RAND_MAX+50);
        descriptor.params[@"direction"] = @(direction);
        descriptor.params[@"clickAction"] = ^{
            UIAlertView *alertView = [[UIAlertView alloc]initWithTitle:@"提示" message:@"弹幕被点击" delegate:nil cancelButtonTitle:@"取消" otherButtonTitles:nil];
            [alertView show];
        };
        return descriptor;
    }
    

    最后一步, 千万要记得start

    [_renderer start];
    
    • tip7: 智能美颜效果
      现在的直播平台, 美颜是标配. 不然绝大多数的主播都是没法看的.美颜算法需要用到GPU编程, 需要懂图像处理的人. 图像处理这一块我不是很熟悉, 相关的文献也是看得云里雾里的. 所以, 依然使用开源的轮子:<a href="https://github.com/BradLarson/GPUImage"> GPUImage </a>. 这个开源框架有近1.3W+star(7月5日数据), 真不是盖的, 内置125种滤镜效果, 没有你想不到, 只有你不会用. 我的项目中都有详细的用法, 还是很简单的. 在这里摘抄一份其.h文件的注释. 一方面方便大家修改我项目中的美颜效果, 另一方面也是做个备份.(具体出处我真忘了, 如果有人找到了源地址链接, 可以联系我加上)
    #import "GLProgram.h"
    
    // Base classes
    #import "GPUImageOpenGLESContext.h"
    #import "GPUImageOutput.h"
    #import "GPUImageView.h"
    #import "GPUImageVideoCamera.h"
    #import "GPUImageStillCamera.h"
    #import "GPUImageMovie.h"
    #import "GPUImagePicture.h"
    #import "GPUImageRawDataInput.h"
    #import "GPUImageRawDataOutput.h"
    #import "GPUImageMovieWriter.h"
    #import "GPUImageFilterPipeline.h"
    #import "GPUImageTextureOutput.h"
    #import "GPUImageFilterGroup.h"
    #import "GPUImageTextureInput.h"
    #import "GPUImageUIElement.h"
    #import "GPUImageBuffer.h"
    
    // Filters
    #import "GPUImageFilter.h"
    #import "GPUImageTwoInputFilter.h"
    
    
    #pragma mark - 调整颜色 Handle Color
    
    #import "GPUImageBrightnessFilter.h"                //亮度
    #import "GPUImageExposureFilter.h"                  //曝光
    #import "GPUImageContrastFilter.h"                  //对比度
    #import "GPUImageSaturationFilter.h"                //饱和度
    #import "GPUImageGammaFilter.h"                     //伽马线
    #import "GPUImageColorInvertFilter.h"               //反色
    #import "GPUImageSepiaFilter.h"                     //褐色(怀旧)
    #import "GPUImageLevelsFilter.h"                    //色阶
    #import "GPUImageGrayscaleFilter.h"                 //灰度
    #import "GPUImageHistogramFilter.h"                 //色彩直方图,显示在图片上
    #import "GPUImageHistogramGenerator.h"              //色彩直方图
    #import "GPUImageRGBFilter.h"                       //RGB
    #import "GPUImageToneCurveFilter.h"                 //色调曲线
    #import "GPUImageMonochromeFilter.h"                //单色
    #import "GPUImageOpacityFilter.h"                   //不透明度
    #import "GPUImageHighlightShadowFilter.h"           //提亮阴影
    #import "GPUImageFalseColorFilter.h"                //色彩替换(替换亮部和暗部色彩)
    #import "GPUImageHueFilter.h"                       //色度
    #import "GPUImageChromaKeyFilter.h"                 //色度键
    #import "GPUImageWhiteBalanceFilter.h"              //白平横
    #import "GPUImageAverageColor.h"                    //像素平均色值
    #import "GPUImageSolidColorGenerator.h"             //纯色
    #import "GPUImageLuminosity.h"                      //亮度平均
    #import "GPUImageAverageLuminanceThresholdFilter.h" //像素色值亮度平均,图像黑白(有类似漫画效果)
    
    #import "GPUImageLookupFilter.h"                    //lookup 色彩调整
    #import "GPUImageAmatorkaFilter.h"                  //Amatorka lookup
    #import "GPUImageMissEtikateFilter.h"               //MissEtikate lookup
    #import "GPUImageSoftEleganceFilter.h"              //SoftElegance lookup
    
    
    
    
    #pragma mark - 图像处理 Handle Image
    
    #import "GPUImageCrosshairGenerator.h"              //十字
    #import "GPUImageLineGenerator.h"                   //线条
    
    #import "GPUImageTransformFilter.h"                 //形状变化
    #import "GPUImageCropFilter.h"                      //剪裁
    #import "GPUImageSharpenFilter.h"                   //锐化
    #import "GPUImageUnsharpMaskFilter.h"               //反遮罩锐化
    
    #import "GPUImageFastBlurFilter.h"                  //模糊
    #import "GPUImageGaussianBlurFilter.h"              //高斯模糊
    #import "GPUImageGaussianSelectiveBlurFilter.h"     //高斯模糊,选择部分清晰
    #import "GPUImageBoxBlurFilter.h"                   //盒状模糊
    #import "GPUImageTiltShiftFilter.h"                 //条纹模糊,中间清晰,上下两端模糊
    #import "GPUImageMedianFilter.h"                    //中间值,有种稍微模糊边缘的效果
    #import "GPUImageBilateralFilter.h"                 //双边模糊
    #import "GPUImageErosionFilter.h"                   //侵蚀边缘模糊,变黑白
    #import "GPUImageRGBErosionFilter.h"                //RGB侵蚀边缘模糊,有色彩
    #import "GPUImageDilationFilter.h"                  //扩展边缘模糊,变黑白
    #import "GPUImageRGBDilationFilter.h"               //RGB扩展边缘模糊,有色彩
    #import "GPUImageOpeningFilter.h"                   //黑白色调模糊
    #import "GPUImageRGBOpeningFilter.h"                //彩色模糊
    #import "GPUImageClosingFilter.h"                   //黑白色调模糊,暗色会被提亮
    #import "GPUImageRGBClosingFilter.h"                //彩色模糊,暗色会被提亮
    #import "GPUImageLanczosResamplingFilter.h"         //Lanczos重取样,模糊效果
    #import "GPUImageNonMaximumSuppressionFilter.h"     //非最大抑制,只显示亮度最高的像素,其他为黑
    #import "GPUImageThresholdedNonMaximumSuppressionFilter.h" //与上相比,像素丢失更多
    
    #import "GPUImageSobelEdgeDetectionFilter.h"        //Sobel边缘检测算法(白边,黑内容,有点漫画的反色效果)
    #import "GPUImageCannyEdgeDetectionFilter.h"        //Canny边缘检测算法(比上更强烈的黑白对比度)
    #import "GPUImageThresholdEdgeDetectionFilter.h"    //阈值边缘检测(效果与上差别不大)
    #import "GPUImagePrewittEdgeDetectionFilter.h"      //普瑞维特(Prewitt)边缘检测(效果与Sobel差不多,貌似更平滑)
    #import "GPUImageXYDerivativeFilter.h"              //XYDerivative边缘检测,画面以蓝色为主,绿色为边缘,带彩色
    #import "GPUImageHarrisCornerDetectionFilter.h"     //Harris角点检测,会有绿色小十字显示在图片角点处
    #import "GPUImageNobleCornerDetectionFilter.h"      //Noble角点检测,检测点更多
    #import "GPUImageShiTomasiFeatureDetectionFilter.h" //ShiTomasi角点检测,与上差别不大
    #import "GPUImageMotionDetector.h"                  //动作检测
    #import "GPUImageHoughTransformLineDetector.h"      //线条检测
    #import "GPUImageParallelCoordinateLineTransformFilter.h" //平行线检测
    
    #import "GPUImageLocalBinaryPatternFilter.h"        //图像黑白化,并有大量噪点
    
    #import "GPUImageLowPassFilter.h"                   //用于图像加亮
    #import "GPUImageHighPassFilter.h"                  //图像低于某值时显示为黑
    
    
    #pragma mark - 视觉效果 Visual Effect
    
    #import "GPUImageSketchFilter.h"                    //素描
    #import "GPUImageThresholdSketchFilter.h"           //阀值素描,形成有噪点的素描
    #import "GPUImageToonFilter.h"                      //卡通效果(黑色粗线描边)
    #import "GPUImageSmoothToonFilter.h"                //相比上面的效果更细腻,上面是粗旷的画风
    #import "GPUImageKuwaharaFilter.h"                  //桑原(Kuwahara)滤波,水粉画的模糊效果;处理时间比较长,慎用
    
    #import "GPUImageMosaicFilter.h"                    //黑白马赛克
    #import "GPUImagePixellateFilter.h"                 //像素化
    #import "GPUImagePolarPixellateFilter.h"            //同心圆像素化
    #import "GPUImageCrosshatchFilter.h"                //交叉线阴影,形成黑白网状画面
    #import "GPUImageColorPackingFilter.h"              //色彩丢失,模糊(类似监控摄像效果)
    
    #import "GPUImageVignetteFilter.h"                  //晕影,形成黑色圆形边缘,突出中间图像的效果
    #import "GPUImageSwirlFilter.h"                     //漩涡,中间形成卷曲的画面
    #import "GPUImageBulgeDistortionFilter.h"           //凸起失真,鱼眼效果
    #import "GPUImagePinchDistortionFilter.h"           //收缩失真,凹面镜
    #import "GPUImageStretchDistortionFilter.h"         //伸展失真,哈哈镜
    #import "GPUImageGlassSphereFilter.h"               //水晶球效果
    #import "GPUImageSphereRefractionFilter.h"          //球形折射,图形倒立
        
    #import "GPUImagePosterizeFilter.h"                 //色调分离,形成噪点效果
    #import "GPUImageCGAColorspaceFilter.h"             //CGA色彩滤镜,形成黑、浅蓝、紫色块的画面
    #import "GPUImagePerlinNoiseFilter.h"               //柏林噪点,花边噪点
    #import "GPUImage3x3ConvolutionFilter.h"            //3x3卷积,高亮大色块变黑,加亮边缘、线条等
    #import "GPUImageEmbossFilter.h"                    //浮雕效果,带有点3d的感觉
    #import "GPUImagePolkaDotFilter.h"                  //像素圆点花样
    #import "GPUImageHalftoneFilter.h"                  //点染,图像黑白化,由黑点构成原图的大致图形
    
    
    #pragma mark - 混合模式 Blend
    
    #import "GPUImageMultiplyBlendFilter.h"             //通常用于创建阴影和深度效果
    #import "GPUImageNormalBlendFilter.h"               //正常
    #import "GPUImageAlphaBlendFilter.h"                //透明混合,通常用于在背景上应用前景的透明度
    #import "GPUImageDissolveBlendFilter.h"             //溶解
    #import "GPUImageOverlayBlendFilter.h"              //叠加,通常用于创建阴影效果
    #import "GPUImageDarkenBlendFilter.h"               //加深混合,通常用于重叠类型
    #import "GPUImageLightenBlendFilter.h"              //减淡混合,通常用于重叠类型
    #import "GPUImageSourceOverBlendFilter.h"           //源混合
    #import "GPUImageColorBurnBlendFilter.h"            //色彩加深混合
    #import "GPUImageColorDodgeBlendFilter.h"           //色彩减淡混合
    #import "GPUImageScreenBlendFilter.h"               //屏幕包裹,通常用于创建亮点和镜头眩光
    #import "GPUImageExclusionBlendFilter.h"            //排除混合
    #import "GPUImageDifferenceBlendFilter.h"           //差异混合,通常用于创建更多变动的颜色
    #import "GPUImageSubtractBlendFilter.h"             //差值混合,通常用于创建两个图像之间的动画变暗模糊效果
    #import "GPUImageHardLightBlendFilter.h"            //强光混合,通常用于创建阴影效果
    #import "GPUImageSoftLightBlendFilter.h"            //柔光混合
    #import "GPUImageChromaKeyBlendFilter.h"            //色度键混合
    #import "GPUImageMaskFilter.h"                      //遮罩混合
    #import "GPUImageHazeFilter.h"                      //朦胧加暗
    #import "GPUImageLuminanceThresholdFilter.h"        //亮度阈
    #import "GPUImageAdaptiveThresholdFilter.h"         //自适应阈值
    #import "GPUImageAddBlendFilter.h"                  //通常用于创建两个图像之间的动画变亮模糊效果
    #import "GPUImageDivideBlendFilter.h"               //通常用于创建两个图像之间的动画变暗模糊效果
    
    
    #pragma mark - 尚不清楚
    #import "GPUImageJFAVoroniFilter.h"
    #import "GPUImageVoroniConsumerFilter.h"
    
    • tip8: H264硬编码
      如果使用<a href="https://github.com/Bilibili/ijkplayer">ijkplayer </a>使用硬解码, 一句代码即可.
    // 开启硬解码
    [option setPlayerOptionValue:@"1" forKey:@"videotoolbox"];
    

    硬编码的应用场景: 我们要将主播的视频数据传送给服务器

    通过摄像头来采集图像,然后将采集到的图像,通过硬编码的方式进行编码,最后编码后的数据将其组合成H264的码流通过网络传播。

    摄像头采集图像, iOS系统提供了AVCaptureSession来采集摄像头的图像数据. 项目中我是直接使用<a href="https://github.com/BradLarson/GPUImage"> GPUImage </a>中的GPUImageVideoCamera, 直接设置GPUImageVideoCamera的代理即可, 在其代理方法- (void)willOutputSampleBuffer:(CMSampleBufferRef)sampleBuffer;进行数据编码即可.

    切记一点: 不管是系统自带的AVCaptureSession还是GPUImageVideoCamera采集到的数据都是未经过编码的CMSampleBuffer.

    然后将采集到的数据, 用iOS开放的VideoToolbox进行硬编码. 关于VideoToolbox硬编解码网上很多教程, 当然最好是看Apple的官方文档, 如果只是硬编码, 看我的项目即可.

    关键的编码函数(来自YOLO直播负责人的开源项目<a href="https://github.com/Guikunzhi/BeautifyFaceDemo"> BeautifyFaceDemo </a>)

    void didCompressH264(void *outputCallbackRefCon, void *sourceFrameRefCon, OSStatus status, VTEncodeInfoFlags infoFlags,
                         CMSampleBufferRef sampleBuffer )
    {
        if (status != 0) return;
        // 采集的未编码数据是否准备好
        if (!CMSampleBufferDataIsReady(sampleBuffer))
        {
            NSLog(@"didCompressH264 data is not ready ");
            return;
        }
        ALinH264Encoder* encoder = (__bridge ALinH264Encoder*)outputCallbackRefCon;
        
        bool keyframe = !CFDictionaryContainsKey((CFArrayGetValueAtIndex(CMSampleBufferGetSampleAttachmentsArray(sampleBuffer, true), 0)), kCMSampleAttachmentKey_NotSync);
        
        if (keyframe) // 关键帧
        {
            CMFormatDescriptionRef format = CMSampleBufferGetFormatDescription(sampleBuffer);
            size_t sparameterSetSize, sparameterSetCount;
            const uint8_t *sparameterSet;
            OSStatus statusCode = CMVideoFormatDescriptionGetH264ParameterSetAtIndex(format, 0, &sparameterSet, &sparameterSetSize, &sparameterSetCount, 0 );
            if (statusCode == noErr)
            {
                size_t pparameterSetSize, pparameterSetCount;
                const uint8_t *pparameterSet;
                OSStatus statusCode = CMVideoFormatDescriptionGetH264ParameterSetAtIndex(format, 1, &pparameterSet, &pparameterSetSize, &pparameterSetCount, 0 );
                if (statusCode == noErr)
                {
                    encoder->sps = [NSData dataWithBytes:sparameterSet length:sparameterSetSize];
                    encoder->pps = [NSData dataWithBytes:pparameterSet length:pparameterSetSize];
                    NSLog(@"sps:%@ , pps:%@", encoder->sps, encoder->pps);
                }
            }
        }
        
        CMBlockBufferRef dataBuffer = CMSampleBufferGetDataBuffer(sampleBuffer);
        size_t length, totalLength;
        char *dataPointer;
        OSStatus statusCodeRet = CMBlockBufferGetDataPointer(dataBuffer, 0, &length, &totalLength, &dataPointer);
        if (statusCodeRet == noErr) {
            
            size_t bufferOffset = 0;
            static const int AVCCHeaderLength = 4;
            while (bufferOffset < totalLength - AVCCHeaderLength)
            {
                uint32_t NALUnitLength = 0;
                memcpy(&NALUnitLength, dataPointer + bufferOffset, AVCCHeaderLength);
                NALUnitLength = CFSwapInt32BigToHost(NALUnitLength);
                NSData *data = [[NSData alloc] initWithBytes:(dataPointer + bufferOffset + AVCCHeaderLength) length:NALUnitLength];
                bufferOffset += AVCCHeaderLength + NALUnitLength;
                NSLog(@"sendData-->> %@ %lu", data, bufferOffset);
            }
            
        }
        
    }
    

    感触

    虽说这个项目是个山寨的, 高仿的, 但是依然已经很庞大了. 具体的细节还是需要大家自己去看我的项目源码. 短短几千字还真说不清这么多的知识点. blog的文章名字说了是初窥, 还真的只是初窥, 视频直播里面的坑太多. 且行且珍惜...

    tip: 本文理论知识部分, 采集自网络. 请记住一句话talk is cheap show me the code, 重点在于Demo项目本身. 理论部分我只是一个搬运工和总结者...

    项目编译环境

    Xcode7(及以上)
    最好是将项目跑在真机上. 有些地方模拟器是不支持的, 也看不到任何效果的, 比如硬编码/智能美颜等, 这些功能模块, 我做了限制的, 需要真机状态才能进行.

    项目下载地址

    <a href="https://github.com/SunLiner/MiaowShow">GitHub下载地址</a>
    请star和fork. 后续的bug会持续更新到github上的.
    有问题可以在简书给我留言/私信, 或者微博(简书个人上首页有我的微博)私信我.

    7月9日凌晨更新: 项目已经集成视频直播推流
    blog地址详解<a href="http://www.jianshu.com/p/8ea016b2720e">快速集成iOS基于RTMP的视频推流</a>

    联系我

    <a href="https://github.com/SunLiner">github</a>

    <a href="http://www.weibo.com/5589163526/profile?rightmod=1&wvr=6&mod=personinfo&is_all=1">微博</a>

    <a href="http://www.jianshu.com/users/9723687edfb5/latest_articles">简书</a>

    相关文章

      网友评论

      • zmfflying:获取网络状态的方法该更新了,这个在iphonex上不适用
      • 半缘魔君:一个父控制器HomeViewController+三个子控制器(最热/最新/关注. 每个控制器各自管理自己的业务逻辑, 高内聚低耦合)---如果子控制器过多,要怎么实现这个效果?
      • hjai:你好,我想问个问题:我现在有个rtmp的地址,并且有一个MP4文件(或者是视频流数据),怎样将MP4文件读取成视频流数据往那个rtmp地址上推呢?可以的话可以留个QQ什么的交流一下吗?谢谢你
      • 如果心情是音乐:http://t.cn/R8FEpI2 免费领取阿里云幸运券。
      • 张贺通:// 如果是跟我blog教程搭建的本地服务器, 记得填写你电脑的IP地址
        stream.url = @"rtmp://192.168.1.102:1935/rtmplive/room";
        这里不太明白啥意思,怎么才能确定自己直播出去了?
      • 瘦子书生:大神,能加你的QQ,请教一下问题吗
      • 67f75bf93352:大神好,你用的是第三方直播框架吗?还是什么?
      • bb4cf902bdbc:大神 请问 这个项目中 用到 VLC了吗 我看别的文章也是说这个 喵播直播的 用到VLC 那么VLC和 IJKPlayer有什么区别呢
      • iOS倔强青铜:公司老板说了一句想做直播,刚查到作者这篇文章,其中美颜的头文件...我知道,我要走的路还很长:joy:
      • 綠茶_8fcb:慕名而来
      • e4d2c7cd61b1:请教大神,我成功编译并安装到手机上了,feed流都是没问题的,但是当点击“开始直播”录像那个按钮,程序就闪退了,想请教下是什么原因~
      • 背锅虾:demo 运行不了,是什么原因,已导入IJKMediaFramework 了,还要注意些什么
      • Society2012:在真机上,一直显示连接中,按照你的方法,我的配置没有任何问题,你觉得那里出问题了?
      • CloudL:mark,写得不错,重点问题都做了说明,收藏先
      • Parkour皇:你好,我想问一下你这个直播的推流会推到哪儿的服务器
      • 36962fb0bb43:APP,海量商业实例,助您快速上线/集成/实践,来自[b][color=Red]www.7coding.top[/color][/b]
      • 目染江夏:你好 ,关于IJKMediaFramework/IJKMediaFramework.h找不到的问题!!!
        这个问题在哪里解决?
      • 博BlingBing:你好,我看到了你的一些高仿app。我有个疑问想问你一下谢谢。
        1:高仿的app的接口是通过Charles抓包的吗?
        2: 接口参数和接口返回的数据,都是自己通过Charles来分析得到的么? 谢谢啦
      • Damon4Zhou:在vlc上视频放不出来 只有音频,是什么原因?博主
      • 贱精先玍丶:换成楼主打包的release包就好了.:cry: 我竟然是按照教程还打包失败的一员....
      • 贱精先玍丶:给我报的3个错误,归类是Apple Mach-O Linker (Id) Error, 1."operator delete(void*)", referenced from: 2."operator new(unsigned long)", referenced from: 3.Linker command failed with exit code 1 (use -v to see invocation) 这3个:worried: 我打包好,合并完模拟器和真机的framework啦...还是这样
        文文文文西:缺少这个依赖库:libc++.tbd 在Link Binary加上就行了
        e4d2c7cd61b1:按照说明,将Framework打包并复制到指定文件夹下之后,还需要在项目中做关联才可以,在 Build Phases的Link Binary里添加指定的Framework~
        背锅虾:解决了吗,我也是遇到这情况
      • lynch0571:已收录《千赞专题》,欢迎关注:http://www.jianshu.com/collection/032a478c3dbf
      • 9d3354a7ec42:特意去注册个账号来谢谢楼主...这个实在太有用了。一定要注册个账号来给楼主点个赞
      • 李乾坤David:“弹幕: 点击最下方的工具栏第一个按钮可以开启/关闭弹幕, 后面详解”是怎么现实的,会不会有后续文章!
      • S型身材的猪:顺便说一下,当我们直接将IJKMediaFramework.framework拖入工程时,会报5个错误,大概是像“referenced from in xxx.o”这样的错误。正确的解决办法是不要直接拖进工程,而是用“Add Files to "你的项目名字",操作方法是选中工程目录中的一个文件夹,鼠标右击,就能看到那一个选项
      • 跃点云:点赞,非常好!
      • 一米押金:就是我想知道你设计的NSSafeObject的用途是什么
      • 蓬莱仙羽:ld: library not found for -lAFNetworking
        clang: error: linker command failed with exit code 1 (use -v to see invocation) 报错
      • 暖风惜人:不用第三方直播的美颜,会有影响吗
      • 请输入账号名:此等大神已经关注,,,正好公司有这个需求。
      • 天下只有一个:demo 运行报错
      • 进击的小恶魔:请问一下,音频解码是那一部分控制的?
      • 一米押金:针对登录界面的提问,我是直接导入ijk框架的,然后按照你的代码方式设置之后发现,并没有播放本地的视频,通过运行的英文的方式我找不到原因,打断点的话,player有值,我想知道是为什么
      • michaelhu:小弟最近在填音频降噪这方面的坑,网上资料太少,楼主可有这方面的经验或者推荐,感激不尽
      • 我要学习啊:哈哈,学习
      • 我在鄱阳湖边:厉害了我的哥,我说一下我的故事吧,我下载之后,首先是cocoapods好像在macOS Sierra里有什么问题,反正更新失败好多次,更新好了我设置了prefix header文件路径,出现了#import <IJKMediaFramework/IJKMediaFramework.h> cannot found 我把你framework文件夹删除了,自己重新打包framework文件,后面出现了两个报错 moviePlayer.shouldShowHudView = !isSelected; 查看了一下是没有这个属性,注释了这两个地方,还有一个—— _session = [[LFLiveSession alloc] initWithAudioConfiguration:[LFLiveAudioConfiguration defaultConfiguration] videoConfiguration:[LFLiveVideoConfiguration defaultConfigurationForQuality:LFLiveVideoQuality_Medium2] liveType:LFLiveRTMP];这个地方是没有LFLiveRTMP这个参数,这应该是cocoapods更新的第三方版本不一样造成的,希望对编译报错的有帮助
      • 你见唔到我:你好,我想问问ios怎么实现,比如手机后台播着音乐,录视频时候可以把后台音乐和mic的声音实时合在一起呢
      • 金子的理财指北:我导入lflivekit的时候运行报错了,
        能给解决一下么?
        Unknown type name 'AVal'
      • hope20:'IJKMediaFramework/IJKMediaFramework.h' file not found
      • faf252120ccb:大神,现在播放不了
      • xhzth70911:内存飙升的问题怎么处理,这个demo 运行看直播的时候内存有些时候飙升到250M了,一般也在200M左右,请教
      • xhzth70911:在最新里面也没有数据?
      • xhzth70911:为什么运行模拟器,看直播的时候一直是请稍后的状态?
      • 坤大丶:大神,xcode8.1 打开直播页面,crash..何解。。。库的原因吗?
      • 瘦神仙:大牛录个视频教程吧,看文字的没有看视频的好学.
      • hou_8:厉害 代码写得好 主要是 讲的逻辑清晰易懂
      • 一舟孤月:大神,能加个好友认识一下吗?最近刚好在做视频直播的app,你的QQ是多少
      • 227d0520ed16:写的很详细,膜拜大神
      • 07060e4f06c3:楼主横竖屏直播,这里的适配怎么做啊,给个思路啊啊啊啊啊,例如,横屏直播的时候,后台看的时候还是竖屏的,怎么调回横屏?
      • 5d51964693b5:请问大神 ,弹幕这些东西 比如说斗鱼,抓出来的数据是什么样子的 为什么我抓到的数据只要 端口号和IP地址 没有弹幕额信息呢 ,请告知,比较烦
      • BigShow:留下个脚印, 证明我来过....
      • cef77d71596e:厉害了,我的哥 :smiley:
      • 砖加:大神。那个我用的ijk怎么过去直播的声音的分贝大小啊。:sweat:
      • dollu:大神大神啊,好好学习一下
      • 我是卖报滴小行家:ERROR: PILI_RTMP_Connect0, failed to connect socket. 61 (Connection refused)
        ERROR: WriteN, PILI_RTMP send error 9, Bad file descriptor, (140 bytes)
        状态是已连接,但是报错了?这是什么原因
        一毫米距离:@我是卖报滴小行家 你好 我也是同样的问题请指导
      • 温暖xj:2元请收好,支持干货,支持分享
      • 我是卖报滴小行家:怎么将生成h264文件推到本地服务器啊??
      • 程序媛vivid:请教下大神,服务器怎么搭建?好像中间菜单的直播因为没连上服务器,没有appstore中的功能。
      • 会上树的潴:#import <IJKMediaFramework/IJKMediaFramework.h>没有发现这个文件,
        会上树的潴:@梦醒雨未停 不好意思 是新手 解决了
      • neobuger:有个小bug 点击轮播图跳转后, 最热,最新,关注, 这一栏还在,盖住标题栏了
      • dbbe0167ce9d:请问一下,从手机端推流到电脑端的nginx+rtmp服务器后,再用VLC播放直播流,为什么有10秒左右的延时,有时还会卡顿和花屏
        dbbe0167ce9d:@我是卖报滴小行家 是的
        我是卖报滴小行家:@星红 你是边直播边在VLC进行播放么?
      • CoderMrGuo:博主,可以直播,然后通过官方app观看直播???
      • GentlePrince:点击导航条上的 [排行] 按钮, 滑动顶部排行栏,排行栏会滑动回主页的顶部栏;
        // 如果自定义返回按钮后, 滑动返回可能失效, 需要添加下面的代码
        __weak typeof(viewController)Weakself = viewController;
        self.interactivePopGestureRecognizer.delegate = (id)Weakself;
      • df25adfd8cde:赞博主大神!请大神 进群指导交流,直播开发技术交流群:183331015 谢谢 博主
      • HHHHHHC:大神.我不知道是不是打包失败,但是 只有一个模拟器版本没有 真机版本
      • zhou天天:以后再看
      • Bob_Blog:非常好的资料,学习了
      • ihere洋:送礼物动画怎么实现?
      • XLAccount:大神你好,我比这你的demo写了个,请问怎么解决视频播放延迟的问题?
      • 砖加:666
      • 缱绻一时:楼主。我下了你的demo之后没办法跑起来。说是IJKMediaFramework没有。我把我自己合的IJKMediaFramework加进去了也没用。不知道是什么原因。求指教
      • 小黑_Coder:请问 粒子系统做点赞系的话,该怎么控制点赞的数量呢?
      • 台灯下的小卫:屏幕旋转的时候视频播放会变形,这个怎么处理?
      • 许还真:直播生命周期又处理吗.例如来电,没电恢复之类的。
      • 哆啦_:大神好 最新在学习这个项目 刚做完login部分 一开始是能正常显示登陆的 但在做了登陆跳转下一个页面之后由于代码问题崩溃了 然后我把跳转给删了 只留一个登陆页面 在运行的时候还是崩了

        ijkmp_set_data_source(url="/Users/lwy1218/Library/Developer/CoreSimulator/Devices/843EE305-34A4-4093-8F68-470F7C9F7A48/data/Containers/Bundle/Application/D4021F54-5E58-45D7-BD69-79228E6F1189/WYLiveDemo.app/loginmovie.mp4")=0
        ijkmp_prepare_async()
        ijkmp_prepare_async()=0
        aout_open_audio()
        2016-09-01 10:56:10.244 WYLiveDemo[7751:70153] 10:56:10.244 WARNING: 40: ERROR: couldn't get default input device, ID = 0, err = 0!
        2016-09-01 10:56:10.264 WYLiveDemo[7751:70079] IJKSDLGLView:applicationDidBecomeActive: 0
        2016-09-01 10:56:10.264 WYLiveDemo[7751:70079] IJKFFMoviePlayerController:applicationDidBecomeActive: 0
        2016-09-01 10:56:10.268 WYLiveDemo[7751:70079] invalidateRenderBuffer
        2016-09-01 10:56:10.289 WYLiveDemo[7751:70079] invalidateRenderBuffer

        还有一个就是在pod导入第三方的时候 导入了LFLiveKit之后是不是就不用再添加GPUImage了?我导入这两个个之后会报错
        哆啦_:@哆啦_ 刚试了下 不是崩了 那是一个全局断点 不过一个全局断点怎么会每次都会停在那一次呢?
      • _yellowzhuwei:怎么没看到有哪个类实现了这个代理方法呢:
        - (void)willOutputSampleBuffer:(CMSampleBufferRef)sampleBuffer

        LFVideoCapture通过GPUImageVideoCamera进行视频录制,但却没看到哪里对数据进行编
        码,楼主可以指导下吗......
      • 半岛小铁盒:通过scrollview加载多个控制器的view,一进入界面就刷新了所有页面的数据,如果数据过多感觉会很卡顿,请问有什么方法第一次进入只加载第一个控制器的数据,随着滑动或者点击到别的控制器在加载新的数据,并且只加载一次。作者有没有什么好的建议 。望回复
      • 云天涯丶:把ijkplayer导入了 还需要导入什么库吗?
      • ddd5a825afdf:OC版本的硬件编码与解码有没?
      • 13149a3d9e65:999999999999999,公司 也要开始做直播,帮助 很大 ! 感谢分享.
      • zhifenx:请问你那直播视频的实时数据是怎么获取的啊?
      • Mr_FF:成功了,感谢博主,LFLiveKit支持动态码率,太棒了!
      • 小明大神:喵播首页热门列表请求地址改成这个了:http://live.9158.com/Room/GetHotLive_v2?page=%ld
      • ddd5a825afdf:有iOS的硬件编码,有没有iOS上的OC版本的硬件解码的Demon?要是有详细的注释就好了,好想学学
      • 烟佛经:最前沿
      • e96890c97fcc:IJKMediaFrameWork.framework 这个框架招不到 怎么办呢
      • 811418d4781a:666 感谢分享
      • 5a7c2642d9ee:666,比较完整了
      • 止念观息:看来做直播是要烧钱的
      • 空恋的爱:谢谢,很不错,但是我好想在集成ijkplayer框架的时候好像还是出错了,打包IJKMediaFramework.framework框架这一步没法完成
      • 3d8fa98de2ea:真机调试遇到该问题 :Code Sign error: No provisioning profiles found: No non–expired provisioning profiles were found. 不知道缺了啥文件呢
      • 我的大名叫小爱:请问 ffmpeg 编码 与硬编码 软编码有什么区别啊...用了 videotoolbox 就不用使用哪个 ffmpeg ???
      • 光武帝:学习很多

      本文标题:iOS视频直播初窥:高仿<喵播APP>

      本文链接:https://www.haomeiwen.com/subject/fggcjttx.html