基础知识积累:
视频实质:
纯粹的视频(不包括音频)实质上就是一组帧图片,经过视频编码成为视频(video)文件再把音频(audio)文件有些还有字幕文件组装在一起成为我们看到的视频(movie)文件。1秒内出现的图片数就是帧率,图片间隔越小画面就越流畅,所以帧率越高效果就越好,需要的存储空间也就越多。
视频编码:
因为不进行编码的视频数据量非常大,会造成存储和传输上的困难,所以视频文件都需要在录制完成后进行编码。视频编码主要从两个维度压缩数据。1、单张图像某一区域相邻像素相似,比如一片红色只记录红色色值和区域,不用记录这个区域的每一个像素点。2、相邻图像之间内容相似,因为相邻两帧要制造连续的效果,所以两帧之间的内容一般非常接近。目前主流的视频编码技术都是用图像编码方法对第一帧进行编码,然后用某种方式描述接下来的帧相对于附近的帧有什么区别。
视频格式:
MP4、MOV、AVI、RMVB这些播放格式其实都是封装格式,除了RMVB比较特殊外,其他格式内封装的视频编码格式都是H264,H264以高压缩率闻名于世,压缩效率比MEPG-2提升一倍多,但是世上没有两全其美的事,H264的解码难度提高了3倍多。所以一般把这个任务交给GPU来做。
视频码率:
视频文件的大小除以是视频的时长定义为码率。很多人搞不清楚码率和分辨率跟视频质量的关系,包括本人。码率可以理解为取样率,单位时间内取样率越大,精度就越高,同时体积也越大。当视频没有经过编码时,如果分辨率越高,那么视频图像的细节越清晰。但如果视频经过编码,被限制在一定码率内,编码器就必须舍弃掉一部分细节。所以分辨率和码率都同清晰度有关。
软解码和硬解码:
对H264的视频解码给CPU造成了很大负担,所以手机工程师把这部分工作交给了更善于进行处理简单工作但是数据量较大的GPU,GPU解码就是所谓的硬解码,CPU解码就是软解码。iOS提供的播放器类使用的是硬解码,所以视频播放对CPU不会有很大的压力,但是支持的播放格式比较单一,一般就是MP4、MOV、M4V这几个。
HTTP Live Streaming:
HTTP Live Streaming(缩写是 HLS)是一个由苹果公司提出的基于HTTP的流媒体网络传输协议。它的工作原理是把整个流分成一个个小的基于HTTP的文件来下载,每次只下载一些。当媒体流正在播放时,客户端可以选择从许多不同的备用源中以不同的速率下载同样的资源,允许流媒体会话适应不同的数据速率。支持的视频流编码为H.264。我们在视频网站上看到的M3U8后缀的播放链接就是使用HLS协议的视频。HLS优点,1、看完一段缓存一段,防止只看一段视频但是把整个视频文件都缓存下来的用户,减少服务器压力和节省流量。2、根据用户网速切换不同的码率,兼顾流程性和清晰度。
HLS支持情况:iOS 3.0及之后的版本,Android 3.0及之后的版本,HTML5。
https://www.jianshu.com/p/2ce402a485ca
终端播放格式的选取:
Android由于3.0之后才支持HLS,所以Android2.3只能用MP4,Android4.0、iOS、HTML5可以用m3u8,而不支持HTML5的浏览器只能用flash播放swf,而iOS又不支持flash。由于以上原因,目前无法实现一个播放地址在所有的平台都通用。
iOS视频播放:
iOS提供MPMoviePlayerController和AVPlayer类进行播放。
网友评论