美文网首页iOS Developer程序员
iOS开发直播app(基础篇)

iOS开发直播app(基础篇)

作者: 伍骁辛 | 来源:发表于2016-11-17 18:46 被阅读785次

    1.直播app原理
    直播原理:把主播录制的视频,推送到服务器,然后由服务器CDN分发给观众。

    2.直播app流程
    简单的流程:采集->滤镜处理->编码->推流->CDN分发->拉流->解码->播放
    直播环节:推流端(采集、美颜处理、编码、推流)、服务端(转码、录制、截图)、播放端(拉流、解码、渲染)、互动(聊天、点亮、礼物)
    流程图如下:


    直播流程.png

    3.直播架构

    直播架构.png

    二、直播基础知识

    1、采集视频、音频
    AVFoundation: AVFoundation是用来播放和创建基于时间的视听媒体的框架,它提供了Objective-C接口来处理这些数据,比如创建、编辑、重新编码、回放等。

    2.视频处理(美颜)
    利用OpenGL ES开源图形嵌入式系统框架,对视频帧进行加工,通过GPU渲染到屏幕,从而实现各种不同的视频效果。一般情况下app的个各种美颜和视频特效都是通过GPUImage这个框架实现的。

    相关视频框架介绍

    GPUImage:GPUImage是一个基于OpenGL ES的一个图像视频处理框架,封装了多达120多种常见的滤镜效果,同时也支持自定义编写滤镜效果。
    
    OpenGL(Open Graphics Library):是一个跨编程语言、跨平台的编程接口规定的专业的图形程序接口,是一个功能强大、调用方便的底层图形库。
    
    OpenGL ES(OpenGL for Embedded Systems ):是OpenGL三维图形API的子集,针对手机等嵌入式设备而设计。
    

    3.视频编码解码

    视频编码框架
    FFmpeg:是一个跨平台开源视频框架,提供了视频录制、转换以及流化音视频的解决方案,也就是视频编码、解码、转码、转流、播放等功能。FFmpeg支持了几乎所有音视频编解码、封装格式以及播放协议。它包含非常先进的了音频、视频编解码库libavcodec,保证了编解码的质量。
    ps:
    1. X264:把视频原数据YUV编码压缩成H.264格式;
    2.VideoToolbox:苹果自带的视频硬解码和硬编码API;
    3.AudioToolbox:苹果自带的音频硬解码和硬编码API。

    视频编码

    视频压缩标准:MPEG、H.264等,对视频进行压缩(视频编码)或者解压缩(视频解码)的编码技术,主要是将视频像素压缩成为视频码流,从而达到降低视频数量的目的。

    1.MPEG:一种视频压缩方式,采用帧间压缩,存储连续帧之间有差别的地方达到较大的压缩比;
    2.H.264:一种视频压缩方式,采用事先预测和与MPEG中的P-B帧一样的帧间预测方法压缩,可以根据需要产生适合网络情况传输的视频流,有更高的压缩比和更好的图像质量;
    3.H.265:基于H.264的一种视频压缩方式,保留原有的技术,并且对一些技术进行优化以改善码流、编码质量、延时和算法复杂度之间的关系。

    音频编码
    AAC、mp3:对音频压缩的音频编码技术。
    码率控制
    多码率:根据用户当前网络环境自定义码率,例如视频播放软件中的1024、720、高清、标清、流畅等就是码率。
    视频封装格式
    TS:流媒体封装格式,流媒体封装格式的好处就是不需要加载索引再播放,大大减少了首次载入的延迟。
    FLV:流媒体封装格式,由于其形成的文件极小、加载速度极快,使其成为当前主流视频格式。

    4.推流
    librtmp:数据传输框架,用来传输RTMP协议格式的数据
    RTMP:流媒体数据传输协议,是Flash播放器和服务器之间音频、视频和数据传输开发的开发协议,这个协议是建立在TCP协议或者轮训HTTP协议,主要用于对象、视频、音频的传输。

    5.流媒体服务器
    SRS、BMS、nginx
    5.1数据分发
    CDN:(Content Delivery Network),内容分发网络,是构建在网络之上的内容分发网络,依靠部署在各地的边缘服务器,通过中心平台的负载均衡、内容分发、调度等功能模块,使用户就近获取所需内容,降低网络拥塞,提高用户访问响应速度和命中率。

    6.拉流

    直播协议
    RTMP、RTSP:即时要求较高或有互动需求
    HLS:有回放或者跨平台需求

    对比:
    HLS是Apple公司定义的用于实时流传输的协议,HLS协议基于HTTP协议实现,可实现流媒体的直播和点播,主要用于iOS系统。HLS的自适应码率流播,客户端可以根据网络状况自动选择不同码率的视频流,保证了移动设备网络状况不稳定的条件下流畅播放。
    RTSP:
    实时流传输协议,该协议定义了一对多应用程序如何有效地通过IP网络传送多媒体数据。HTTP与RTSP相比,HTTP请求由客户机发出,服务器作出响应;使用RTSP时,客户机和服务器都可以发出请求,即RTSP可以是双向的。
    HTTP-FLV:基于HTTP协议的流式传输协议

    7.解码
    硬解码:使用GPU来解码,减少CPU运算。播放流畅、解码速度快,但兼容性不好。
    软解码:使用CPU来解码。兼容性好,但加大CPU负担,功耗大,解码速度慢,没有硬解码流畅。

    8.播放
    使用ijkplayer这个基于FFmpeg的开源视频播放器,iOS、Android都可集成,使用简单,使用指定拉流URL,自动解码播放。

    9.聊天
    IM即时通讯,在直播中主要是观众与主播间的文字互动。
    第三方SDK:融云、 腾讯云都提供了即时通讯的SDK,实现直播聊天的功能。

    10.第三方直播SDK
    七牛云、网易视频云提供了全球化直播流服务,提供稳定流畅、低耗时、高并发的实时音频服务,可将视频直播快速集成到自己的app当中。

    ps:

    mac测试服务器:采用nginx+rtmp搭建,地址:http://www.jianshu.com/p/a0397c98d907。
    
    拉流端:bilibili站有一个开源项目叫ijkplayer,用起来很不错,地址:https://github.com/Bilibili/ijkplayer。
    

    参考文献
    http://blog.csdn.net/leixiaohua1020/article/details/15814587
    http://www.jianshu.com/p/bd42bacbe4cc

    相关文章

      网友评论

        本文标题:iOS开发直播app(基础篇)

        本文链接:https://www.haomeiwen.com/subject/qlbmuttx.html