一、流媒体(直播需要用到流媒体)
-
流媒体开发
:网络层负责传输(socket),协议层负责网络打包(RTMP/HLS),封装层(flv,ts)负责编码、解码数据的封装,编码层负责图像视频的压缩(H264/AAC)。 -
帧
:每帧代表一副静止的图像。 -
GOP
:(Group of pictures)画面组,一个GOP就是一组连续的画面,每个画面都是一个帧,一个GOP就是很多帧的集合。
直播数据
:其实就是一组图片,包括I帧、P帧、B帧,当用户第一次观看的时候,会寻找I帧,而播放器会到服务器寻找到最近的I帧反馈给用户。因此,GOP增加了端到端的延迟,因为它必须要拿到最近的帧。 -
码率
:图片进行压缩后每秒显示的数据量。 -
帧率
:每秒显示的图片数(FPS)。帧越大越流畅,帧越小越卡顿。
电影制作者发现一旦将帧数提升到24帧,人眼就能让组成影片的一幅幅图像流畅的合为一体(其实这是大脑的感觉),因此将24帧定为了行业标准。游戏制作公司一般把流畅游戏的标准定为30FPS,推荐标准定为60FPS,多数液晶显示器的刷新率也是60Hz。 -
压缩比
:压缩前的每秒数据量/压缩后的每秒数据量(码率)。压缩比越高,也就意味着码率越低,画质越模糊。 -
视频文件格式
:文件的后缀,比如:mp4、mp3、mov、wmv、avi。
用处
:根据文件格式,系统会自动判断用什么软件打开。注意一点,修改文件的格式并不会对文件本身造成太大的影响,如把avi改成mp4,其实文件还是avi。 -
视频封装格式
:一种存储视频信息的容器,流式封装有TS、FLV等,索引式的封装有MP4、MOV、AVI等。
主要作用
:一个视频文件包含图像、音频以及一些配置信息(图像和音频的关联,怎么去解码它们等),这些内容需要按照一定的规则,组织封装起来。
疑问点
:你会发现,视频的封装格式和视频的文件格式一样,因为一般视频文件格式的后缀名就是采用封装格式的名称,所以视频文件格式就是视频封装格式。
二、直播的基础知识
1、采集视频、音频
1.1 采集音视频编码框架
-
AVFoundation
:AVFoundation是用来播放和创建实时视听媒体数据框架,同时提供OC接口来操作这些视听数据,比如编辑、旋转、重编码。
1.2 音视频硬件设备
-
CCD
:图像传感器,用于图像采集和处理过程,把图像转换成电信号。 -
拾音器
:声音传感器,用于声音的采集和处理过程,把声音转换成电信号。 -
音频采样数据
:一般都是PCM格式。 -
视频采样数据
:一般都是YUV或者RGB格式,由于采集到的音视频的体积非常大,所以需要经过压缩技术处理来提高传输效率。
2、视频处理(美颜、水印)
-
视频处理原理
:因为视频最终通过GPU,一帧帧的渲染到屏幕上的,所以我们可以利用OpenGL ES,对视频进行各种加工,从而实现各种不同的效果。目前各种美颜和视频添加特效的APP都是用GUIImage这个框架实现的。 -
GUIImage
:GUIImage是一个基于OpenGL ES的一个强大的图像/视频处理框架,封装好了各种滤镜同时也可以编写自定义的滤镜,其本身内置了多达120多种的滤镜效果。 -
OpenGL
:OpenGL(Open Graphics Library)是个定义了一个跨编程语言、跨平台的编程接口的规格,它用于三维图象(二维的亦可)。OpenGL是个专业的图形程序接口,是一个功能强大,调用方便的底层图形库。 -
OpenGL ES
:OpenGL ES (OpenGL for Embedded Systems) 是 OpenGL三维图形 API 的子集,针对手机、PDA和游戏主机等嵌入式设备而设计。
三、视频编码、解码
1、视频编码框架
-
FFMPEG
:跨平台的开源视频框架,能实现如视频编码、解码、转码、串流、播放等丰富的功能。器支持的视频格式以及播放协议很丰富,几乎包含了所有的音视频编解码、封装格式以及播放协议。 -
X264
:把视频原数据YUV压缩成H264格式。 -
VideoToolbox
:苹果自带的视频硬编码API,在iOS8之后才开放。 -
AudioToolbox
:苹果自带的音频硬编码API。
2、视频编码技术
-
视频压缩编码标准
:对视频进行压缩或者解压缩的编码技术,比如MPEG、H.264,这些视频编码技术是用来压缩编码视频的。
主要作用
:是将视频像素数据压缩成为视频码流,降低视频的数据量。一部上百G的电影压缩之后也就几G。
注意
:最影响视频质量的是其视频编码数据和音频编码数据,跟封装格式没多大关系。 -
MPEG
:一种视频压缩方式,采用看帧间压缩,仅存储连续帧之间有差别的地方,从而达到比较大的压缩比。 -
H.264/AVC
:一种视频压缩方式,采用事先预测和与MPEG中的P-B帧一样的帧预测方法压缩,它可以根据需要产生适合网络情况传输的视频流,还有更高的压缩比,有更好的图象质量。
注意1
:如果从单个画面清晰度比较,MPEG有优势;从动作连贯性上的清晰度,H.264有优势。
注意2
:H.264算法更加复杂,程序实现繁琐,运行它需要更多的处理器和内存资源。因此,运行H264对系统要求还是比较高的。
注意3
:由于264的实现更加灵活,它把一些实现留给了厂商自己去实现,虽然这样给实现带来了很多好处,但是不同产品之间互通成了很大的问题,造成了通过A公司的编码器编出的数据,必须通过A公司的解码器去解这样尴尬的事情。 -
H.265/HEVC
:一种视频压缩方式,基于H.264,保留原来的某些技术,同时对一些相关的技术加以改进,以改善码流、编码质量、延时和算法复杂度之间的关系,达到最优化设置。 -
I帧
:(关键帧)保留一副完整的画面,解码时只需要本帧数据就可以完成(包含了完整的画面)。 -
P帧
:(差别帧)保留本帧和之前帧的差别,解码时需要用之前缓存的画面叠加上本帧定义的差别,生成最终画面。(P帧没有完整画面,只有与前一帧画面差别的数据) -
B帧
:(双向差别帧)保留的是本帧与前后帧的差别,解码B帧,不仅要取得之前缓存的画面,还要解码之后的画面,通过前后画面与本帧数据的叠加取得最终的画面。B帧的压缩率高,但是解码时也会更加耗费CPU。 -
帧内(Intraframe)压缩
:当压缩一帧图像时,仅考虑本帧的数据而不考虑相邻帧之间的冗余信息,帧内一般采用有损压缩算法。 -
帧间(Interframe)压缩
:时间压缩(Temporal compression),它通过比较时间轴上不同帧之间的数据进行压缩。帧间压缩一般是无损的。 -
muxing(合成)
:将视频流、音频流甚至是字幕流封装到一个文件中(容器格式(FLV,TS)),作为一个信号进行传输。
三、音频编码技术与视频封装技术
-
AAC、mp3
:音频编码技术,用于压缩音频。 -
多码率
:现实场景很复杂,有可能是WiFi,有可能4G、3G、甚至2G,那么怎么满足多方需求呢?多搞几条线路,根据当前网络环境自定义码率。常常看见视频播放软件中的1024,720,高清,标清,流畅等,指的就是各种码率。 -
TS
:一种流媒体封装格式,流媒体封装有一个好处,就是不需要加载索引再播放,大大减少了首次载入的延迟,如果片子比较长,mp4文件的索引相当大,影响用户体验。
TS优点
:两个TS片段可以无缝拼接,播放器能连续播放 -
FLV
:一种流媒体封装格式,由于它形成的文件极小、加载速度极快,使得网络观看视频文件成为可能,因此FLV格式成为了当今主流视频格式。
四、推流
-
数据传输框架
:librtmp用来传输RTMP协议格式的数据。 -
流媒体数据传输协议
:RTMP实时消息传输协议,Adobe Systems公司为Flash播放器和服务器之间音频、视频和数据传输开发的开放协议,因为是开放协议所以都可以使用了。
1、RTMP协议用于对象、视频、音频的传输。
2、这个协议建立在TCP协议或者轮询HTTP协议之上。
3、RTMP协议就像一个用来装数据包的容器,这些数据可以是FLV中的视音频数据。一个单一的连接可以通过不同的通道传输多路网络流,这些通道中的包都是按照固定大小的包传输的。
五、流媒体服务器
常用服务器:
-
SRS
:一款国人开发的优秀开源流媒体服务器系统。 -
BMS
:也是一款流媒体服务器系统,但不开源,是SRS的商业版,比SRS功能更多 -
nginx
:免费开源web服务器,常用来配置流媒体服务器。
数据分发: -
CDN
:(Content Delivery Network),即内容分发网络,将网站的内容发布到最接近用户的网络”边缘”,使用户可以就近取得所需的内容,解决 Internet网络拥挤的状况,提高用户访问网站的响应速度。 -
CDN
:代理服务器,相当于中介。 -
工作原理
:请求流媒体数据
1.上传流媒体数据到服务器(源站)
2.源站存储流媒体数据
3.客户端播放流媒体,向CDN请求编码后的流媒体数据
4.CDN的服务器响应请求,若节点上没有该流媒体数据存在,则向源站继续请求流媒体数据;若节点上已经缓存了该视频文件,则跳到第6步。
5.源站响应CDN的请求,将流媒体分发到相应的CDN节点上。
6.CDN将流媒体数据发送到客户端。
-
回源
:当有用户访问某一个URL的时候,如果被解析到的那个CDN节点没有缓存响应的内容,或者是缓存已经到期,就会回源站去获取搜索。如果没有人访问,那么CDN节点不会主动去源站拿。 -
带宽
:在固定时间可传输的数据总量。
比如64位、800MHz的前端总线,它的数据传输率就等于64bit×800MHz÷8(Byte)=6.4GB/s(1Byte = 8bit) -
负载均衡
:由多台服务器以对称的方式组成一个服务器集合,每台服务器都具有等价的地位,都可以单独对外提供服务而无须其他服务器的辅助。
1.通过某种负载分担技术,将外部发送来的请求均匀分配到对称结构中的某一台服务器上,而接收到请求的服务器独立地回应客户的请求。
2.均衡负载能够平均分配客户请求到服务器列阵,籍此提供快速获取重要数据,解决大量并发访问服务问题。
3.这种群集技术可以用最少的投资获得接近于大型主机的性能。
-
QOS(带宽管理)
:限制每一个组群的带宽,让有限的带宽发挥最大的效用。
六、拉流
-
直播协议
:
1、即时性要求较高或有互动需求的可以采用RTMP,RTSP
2、对于有回放或跨平台需求的,推荐使用HLS
-
HLS
:由Apple公司定义的用于实时流传输的协议,HLS基于HTTP协议实现,传输内容包括两部分,一是M3U8描述文件,二是TS媒体文件。可实现流媒体的直播和点播,主要应用在iOS系统。
HLS是以点播的技术方式来实现直播.
HLS是自适应码率流播,客户端会根据网络状况自动选择不同码率的视频流,条件允许的情况下使用高码率,网络繁忙的时候使用低码率,并且自动在二者间随意切 换。这对移动设备网络状况不稳定的情况下保障流畅播放非常有帮助。
实现方法是服务器端提供多码率视频流,并且在列表文件中注明,播放器根据播放进度和下载速度自动调整。
-
HLS与RTMP对比
:HLS主要是延时比较大,RTMP主要优势在于延时低。
HLS协议的小切片方式会生成大量的文件,存储或处理这些文件会造成大量资源浪费。
相比使用RTSP协议的好处在于,一旦切分完成,之后的分发过程完全不需要额外使用任何专门软件,普通的网络服务器即可,大大降低了CDN边缘服务器的配置要求,可以使用任何现成的CDN,而一般服务器很少支持RTSP。
-
HTTP-FLV
:基于HTTP协议流式的传输媒体内容。
相对于RTMP,HTTP更简单和广为人知,内容延迟同样可以做到1~3秒,打开速度更快,因为HTTP本身没有复杂的状态交互。所以从延迟角度来看,HTTP-FLV要优于RTMP。
-
RTSP
:实时流传输协议,定义了一对多应用程序如何有效地通过IP网络传送多媒体数据. -
RTP
:实时传输协议,RTP是建立在UDP协议上的,常与RTCP一起使用,其本身并没有提供按时发送机制或其它服务质量(QoS)保证,它依赖于低层服务去实现这一过程。 -
RTP
:RTP的配套协议,主要功能是为RTP所提供的服务质量(QoS)提供反馈,收集相关媒体连接的统计信息,例如传输字节数,传输分组数,丢失分组数,单向和双向网络延迟等等。
七、解码
解封装:
-
demuxing(分离)
:从视频流、音频流,字幕流合成的文件(容器格式(FLV,TS))中, 分解出视频、音频或字幕,各自进行解码。
音频编码框架 : -
fdk_aac
:音频编码解码框架,PCM音频数据和AAC音频数据互转。
解码介绍: -
硬解码
:使用GPU解码,减少CPU的使用。
优点:播放流畅、低功耗,解码速度快。
缺点:兼容不好。
-
软解码
:CPU解码
优点:兼容好
缺点:加大CPU负担,耗电增加、没有硬解码流畅,解码速度相对慢。
八、播放
-
ijkplayer:一个基于FFmpeg的开源Android/iOS视频播放器。
API易于集成;
编译配置可裁剪,方便控制安装包大小;
支持硬件加速解码,更加省电;
简单易用,指定拉流URL,自动解码播放;
特别感谢,袁峥同学,上面的文字基本都是自己一个一个码出来的,我再次写下来他的总结只是为了加深记忆,且方便自己的阅读。
资料来源
网友评论