WebRTC 学习报告

作者: 耦耦 | 来源:发表于2018-04-02 20:42 被阅读218次

    刚开始接触webRTC,会遇到很多问题。webRTC移动端兼容性检测,如何配置MediaStreamConstraints, 信令(iceCandidate, sessionDescription)传输方式的选择,iceCandidate和sessionDescription设置的先后顺序,STUN和TURN的概念,如何实现截图及录制视频及上传图片和视频功能,如何高效跟踪错误等等。笔者带着这些问题来写这个笔记,敬请指教!

    一、introduction

    WbRTC是Web Real-Time Communication的缩写,顾名思义,也就是web实时通讯技术,它允许网络应用或站点,在不借助中间媒介、不安装任何插件或者第三方软件的情况下,建立浏览器之间P2P链接,实现视频流或者其他任意数据的传输。而Web开发者也无需关注多媒体的数字信号处理过程,只需编写简单的Javascript程序调用相应的接口即可实现。

    说的简单明了一点就是让浏览器提供JS的即时通信接口。这个接口所创立的信道并不是像WebSocket一样,打通一个浏览器与WebSocket服务器之间的通信,而是通过一系列的信令,建立一个浏览器与浏览器之间P2P的信道,这个信道可以发送任何数据,而不需要经过服务器。并且WebRTC通过实现MediaStream,通过浏览器调用设备(包括PC端和移动端)的摄像头、话筒,使得浏览器之间可以传递音频和视频

    WebRTC 是一组开放的 API,用于实现实时音视频通话并且已成为 W3C 标准草案,目前是WebRTC 1.0版本,Draft 状态。

    webrtc几个相关概念

    • SDP(Session Description Protocol)
      SDP是一种会话描述协议,用来描述双方的IP地址和端口号,通信所使用的带宽,会话的名称、标识符、激活时间,双方所要传输的媒体类型(视频、音频、文本)、媒体格式等等。该协议仅包含所要传递的媒体的描述信息,而不直接传递媒体内容。
    • ICE(Interactive Connectivity Establishment)
      ICE是一种以UDP为基础用于实现穿越NAT网管或者防火墙的协议。
    • TURN&&STUN
      两种协议都是用来明确自己的外网地址的,差别是如果要服务器辅助进行数据交换则设置TURN服务器,不需要则设置STUN服务。

    二、兼容性

    目前主流浏览器对 WebRTC 标准的支持情况如下(目前主要支持chrome和Firefox):

    浏览器 支持情况
    Chrome(29+)/Opera(36+) 支持
    Firefox(45+) 支持
    Android Browser 支持(5.0+)
    Safari/iOS 支持
    Edge(14+) 支持
    IE 不支持

    实时查看WebRTC在浏览器中的支持情况: http://caniuse.com/#search=webRTC

    三、WebRTC 系统包含的元素

    WebRTC系统所包含的典型元素:

    • Web服务器
    • 运行于各种设备和操作系统之上的浏览器
    • 台式机
    • 平板电脑
    • 手机和其他服务器
    • PSTN(公用交换电话网)门户
    • 以及其他互联网通信终端
      WebRTC支持上述所有设备之间的通信。

    四、WebRTC三个API

    1、MediaStream(又称getUserMedia)

    通过MediaStream的API能够通过设备的摄像头及话筒获得视频、音频的同步流

    用法

    navigator.mediaDevices.getUserMedia(constraints);
    

    一般来说,navigator.mediaDevices.getUserMedia用法:

    navigator.mediaDevices.getUserMedia(constraints)
    .then(function(stream) {
      /* use the stream */
      /* handleSuccess  成功回调函数*/
    })
    .catch(function(err) {
      /* handle the error */
     /* handleError   失败处理函数*/
    });
    

    之前一直以为getUserMedia()mediaDevice.getUserMedia()的写法相同,但在实践的时候发现是不可以的。getUserMedia接受三个参数(约束条件、成功回调函数、失败回调函数),mediaDevice.getUserMedia只接受一个参数,其他处理函数是以.then和.catch来实现的。

    常见的错误可以点击这里进行查看 ==> Common getUserMedia() Errors

    注意:navigator.getUserMedia此方法已经被navigator.mediaDevices.getUserMedia取代。

    三个参数

    • (1)constraints:约束项

      • 属性:约束项可以具有下面这两个属性中的一个或两个:
        • 1.audio—表示是否需要音频轨道
        • 2.video—表示是否需要视频轨道
          • 分辨率:width、height
          • 关键字:min、max、exact、ideal
          • 获取移动设备的前置或者后置摄像头
            使用视频轨道约束的facingMode属性。可接受的值有:user(前置摄像头),environment(后置摄像头),left和right。
          • 帧速率:frameRate
          • 使用特定的网络摄像头或者麦克风。
    • (2)handleSuccess:成功回调函数
      如果调用成功,传递给它一个流对象

    • (3)handleError:失败回调函数
      如果调用失败,传递给它一个错误对象

    约束对象可定义如下属性:

    属性 含义
    * video: 是否接受视频流
    * audio: 是否接受音频流
    * MinWidth: 视频流的最小宽度
    * MaxWidth: 视频流的最大宽度
    * MinHeight: 视频流的最小高度
    * MaxHiehgt: 视频流的最大高度
    * MinAspectRatio: 视频流的最小宽高比
    * MaxAspectRatio: 视频流的最大宽高比
    * MinFramerate: 视频流的最小帧速率
    * MaxFramerate: 视频流的最大帧速率

    如果网页使用了getUserMedia,浏览器就会询问用户,是否许可提供信息。如果用户拒绝,就调用回调函数handleError。发生错误时,回调函数的参数是一个Error对象,它有一个code参数,取值如下:

    • PERMISSION_DENIED:用户拒绝提供信息。
    • NOT_SUPPORTED_ERROR:浏览器不支持指定的媒体类型。
    • MANDATORY_UNSATISHIED_ERROR:指定的媒体类型未收到媒体流。

    配置MediaStreamConstraints

    所谓MediaStreamConstraints,就是navigator.mediaDevices.getUserMedia(constraints)传入的constraints

    对于移动端来说控制好视频图像的大小是很重要的,例如本项目中想要对方的图像占据全屏,这不仅是改变video元素的样式或者属性能做到的,首先要做的是改变MediaStreamConstraints中的视频分辨率(width, height),使其长宽比例大致与移动端屏幕的类似,然后再将video元素的长和宽设置为容器的长和宽(例如100%)。

    另外对于getUserMedia一定要捕获可能出现的错误,如果是老的API,设置onErr回调,如果是新的(navigator.mediaDevices.getUserMedia),则catch异常。这样做的原因:getUserMedia往往不会完全符合我们的预期,有时即使设置的是ideal的约束,仍然会报错,如果不追踪错误,往往一脸懵逼。这也是后文要提到的高效追踪错误的方法之一。

    兼容浏览器的getUserMedai的写法

    var getUserMedia = (navigator.getUserMedia ||
                        navigator.webkitGetUserMedia ||
                        navigator.mozGetUserMedia || 
                        msGetUserMedia);
    

    检测webRTC的可行性

    主要从getUserMedia和webRTC本身来入手,示例代码如下:

    function detectWebRTC() {
      const WEBRTC_CONSTANTS = ['RTCPeerConnection', 'webkitRTCPeerConnection', 'mozRTCPeerConnection', 'RTCIceGatherer'];
    
      const isWebRTCSupported = WEBRTC_CONSTANTS.find((item) => {
        return item in window;
      });
    
      const isGetUserMediaSupported = navigator && navigator.mediaDevices && navigator.mediaDevices.getUserMedia;
    
      if (!isWebRTCSupported || typeof isGetUserMediaSupported === 'undefined' ) {
        return false;
      }
    
      return true;
    }
    

    HTMLMediaElement.srcObject

    接口的srcObject属性HTMLMediaElement设置或返回作为媒体源的对象HTMLMediaElement,该对象可以是a mediaStream、a mediaSource、a blog 、a file。

    用法

    var mediaStream = HTMLMediaElement .srcObject
     HTMLMediaElement .srcObject = mediaStream
    

    这个例子使用srcObject并优雅地回退到src如果srcObject抛出错误。

    const mediaSource = new MediaSource();
    const video = document.createElement('video');
    try {
      video.srcObject = mediaSource;
    } catch (error) {
      video.src = URL.createObjectURL(mediaSource);
    }
    

    URL.createObjectURL()

    注意:使用 一个MediaStream对象作为此方法的输入正在被弃用。这个方法正在被讨论是否应该被移除. 所以,你应当在你使用MediaStream避免使用这个方法,而用HTMLMediaElement.srcObject() 替代.

    getUserMediaMedai的实现简单代码

    navigator.getUserMedia = navigator.getUserMedia ||
                             navigator.webkitGetUserMedia || 
                             navigator.mozGetUserMedia ||
                             navidator.msGetUserMedia;
    
    var constraints = { // 音频、视频约束
      audio: true, // 指定请求音频Track
      video: {  // 指定请求视频Track
          mandatory: { // 对视频Track的强制约束条件
              width: {min: 320},
              height: {min: 180}
          },
          optional: [ // 对视频Track的可选约束条件
              {frameRate: 30}
          ]
      }
    };
    
    var video = document.querySelector('video');
    
    function successCallback(stream) {
      if (window.URL) {
        video.src = window.URL.createObjectURL(stream);
      } else {
        video.src = stream;
      }
    }
    
    function errorCallback(error) {
      console.log('navigator.getUserMedia error: ', error);
    }
    
    navigator.getUserMedia(constraints)
    .then(function(){
        successCallback(stream);
    })
    .catch(function(){
        errorCallback(error)
    });
    

    如果本机有多个摄像头/麦克风,这时就需要使用MediaStreamTrack.getSources方法指定,到底使用哪一个摄像头/麦克风。


    2、 RTCPeerConnection(核心API)

    RTCPeerConnection的作用是在浏览器之间建立数据的“点对点”(peer to peer)通信,也就是将浏览器获取的麦克风或摄像头数据,传播给另一个浏览器。这里面包含了很多复杂的工作,比如信号处理、多媒体编码/解码、点对点通信、数据安全、带宽管理等等。

    不同客户端之间的音频/视频传递,是不用通过服务器的。但是,两个客户端之间建立联系,需要通过服务器。服务器主要转递两种数据。

    • 通信内容的元数据:打开/关闭对话(session)的命令、媒体文件的元数据(编码格式、媒体类型和带宽)等。
    • 网络通信的元数据:IP地址、NAT网络地址翻译和防火墙等。

    WebRTC协议没有规定与服务器的通信方式,因此可以采用各种方式,比如WebSocket。通过服务器,两个客户端按照Session Description Protocol(SDP协议)交换双方的元数据。

    RTCPeerConnection是在Chrome中和Android设备中使用,经过几次迭代之后RTCPeerConnection现在支持 Chrome and Opera作为webkitRTCPeerConnectionFirefox 作为mozRTCPeerConnection。Google维护一个函数库adapter.js,用来抽象掉浏览器之间的差异。

    UDP和TCP的区别

    (Transmisson Control Protocol,TCP)传输控制协议,它保证如下几点:

    • 任何送出的数据都有送达的确认
    • 任何未送达接收端的数据会被重传并停止发送更多的数据。
    • 数据是唯一的,接收端不会有重复的数据

    (User Datagram Protocol, UDP)用户数据报协议,以下是他不保证的事情:

    • 不保证数据发送或接收扥先后顺序。
    • 不保证每一个数据包都能都传送到接收端吗;一些数据可能在半路丢失。
    • 不跟踪每一个数据包的状态,即使接收端有数据丢失也会继续传输。

    TCP的这些限制使得WEBRTC开发者选择UDP作为传输协议,webRTC的音频、视频和数据在浏览器间的传输不需要最可靠但需要最快。这意味着允许丢失帧,也就是说这类应用来说UDP是一个更好的选择。但不意味着webRTC就不使用TCP协议!

    如果UDP传输失败, ICE 会尝试TCP: 首先是 HTTP, 然后才会选择 HTTPS。如果直接连接失败,通常因为企业的NAT转发和防火墙,也就是ICE使用了第三方中转。这样一来,ICE首先使用STUN和UDP和直接连接端点,失败之后返回TURN服务器,表达式‘finding cadidates’指向找到的网络接口和端口。

    没有服务器的RTCPeerConnection

    请求和被请求都在同一个页面,它们可以直接通过RTCPeerConnection对象在页面上交换信息,而不需要使用中介的信号机制。WebRTC samples用的是这种方式,但一般来说,实际开发的时候,这种方式不会用到。只是在学习和测试的时候用的比较多【个人而言】。

    有服务器的RTCPeerConnection

    在现在的世界里,WebRTC需要服务器,但是服务器配置非常简单,步骤如下:

    • 用户找到对方并交换双信息,比如名字。
    • WebRTC客户端应用交换网络信息。
    • 两个端交换多媒体数据信息。
    • WebRTC客户端遍历NAT 网关和防火墙。

    其他方面,WebRTC需要四个类型的服务器端功能:

    • 用户连接和通信
    • 信号量
    • NAT/防火墙转发
    • 如果通信失败再次发送

    服务器主要转递两种数据。

    • 通信内容的元数据:打开/关闭对话(session)的命令、媒体文件的元数据(编码格式、媒体类型和带宽)等。
    • 网络通信的元数据:IP地址、NAT网络地址翻译和防火墙等。

    WebRTC协议没有规定与服务器的信令通信方式,因此可以采用各种方式,比如WebSocket(HTTP、数据通道等)。通过服务器,两个客户端按照Session Description Protocol(SDP协议)交换双方的元数据。

    兼容浏览器的PeerConnection写法

    var PeerConnection = (window.PeerConnection ||
                        window.webkitPeerConnection00 || 
                        window.webkitRTCPeerConnection || 
                        window.mozRTCPeerConnection);
    

    信号: session控制,网络和多媒体信息

    WebRTC使用RTCPeerConnection进行两个浏览器之间的数据流的通信,但是也需要一种机制来协调沟通控制信息,这一个过程叫做信号。信号的方法和协议不是WebRTC指定的,而是RTCPeerConnection API的一部分。

    信号用来交换以下三个类型的信息:

    • Session控制信息:用来初始化或是关闭通信,并报告错误。
    • 网络配置:本机的IP和端口等配置。
    • 媒体功能:编码解码器配置。

    建立webRTC的基本会话流程

    singing server信令服务器:用来开始和结束通话,即开始视频、结束视频这些操作指令和通信数据的交换等。

    注意:使用turn服务器的时候,客户端AB不直接通信,而是分别与turn通信从而建立链接。
    使用stun服务器的时候,因为客户端B无法访问客户端A的内网IP,所以A通过stun服务器获得自己的外网IP再发送给B,从而建立链接。

    webRTC基本会话流程
    1. 首先双方都建立一个RTCPeerConnection的实例,其中一方(称为offer方)用RTCPeerConnection.createOffer()创建一个会话描述sessionDescription,该会话描述包含SDP报文信息和该sessionDescription的类型(type)

    2. 接下来调用RTCPeerConnection.setLocalDescription()方法将本地的localDescription设置为刚才创建的sessionDescription。之后将创建的sessionDescription发送给对方(称为answer方),发送方式没有规定,可以通过服务器中转,可以通过IM软件发送(这里使用WebSocket信令服务器)。

    3. answer端接收到sessionDescription后调用RTCPeerConnection. setRemoteDescription方法设置,然后调用RTCPeerConnection. createAnswer方法产生自己的sessionDescription。

    4. 再将创建的sessionDescription发送给offfer方,同样发送方式没有规定。offer方接收到sessionDescrip后调用RTCPeerConnection. setRemoteDescription方法设置,这样双方的SDP信息就交换完成了。

    5. 在完成SDP的交换后双方还要交换ICE candidate信息。双方首先设置RTCPeerConnection.onicecandidate回调函数,当candidate可用时,双方中的一方将所有icecandidate发送给对方,发送方式同样没有规定,接收方调用RTCPeerConnection.addIceCandidate方法接收candidate信息。经过这些步骤后双方连接就建立完成了。

    注意:RTCPeerConnection.addStreamRTCPeerConnection.addTrack取代;


    3、RTCDataChannel (不常用)

    RTCDataChannel 使得浏览器之间(点对点)建立一个高吞吐量、低延时的信道,用于传输任意数据。表示连接的两个对等端之间的 双向数据通道

    我们可以使用channel = pc.createDataCHannel("someLabel");来在PeerConnection的实例上创建Data Channel,并给与它一个标签

    例子

    var pc = new RTCPeerConnection();
    var dc = pc.createDataChannel("my channel", dataChannelOptions);
    
    dc.onmessage = function (event) {
     console.log("received: " + event.data);
    };
    
    dc.onopen = function () {
     console.log("datachannel open");
    };
    
    dc.onclose = function () {
     console.log("datachannel close");
    };
    

    dataChannelOptions为数据通道选项,可以自行配置,并且这个配置项是可选的:

    //这两个是主要使用的配置项,其他的配置大多在高级应用中才会使用
    var dataChannelOptions = {
        reliable: false,    //设置消息传递是否进行担保
       maxRetransmitTime: 3000     //设置消息传送失败时,多久重新发送
    }
    

    DataChannel使用方式几乎和WebSocket一样,有几个事件

    • onopen
    • onclose
    • onmessage
    • onerror

    四个状态,可以通过readyState获取:

    • connecting: 浏览器之间正在试图建立channel
    • open:链接建立成功,可以进行通信,可以使用send方法发送数据了
    • closing:通道正在被销毁
    • closed:通道已经被关闭了,无法进行通信

    两个暴露的方法:

    • close(): 用于关闭channel
    • send():用于通过channel向对方发送数据

    当创建一个数据通道后,你必须等onopen事件触发后才能发送消息。在通道打开前发送消息,会抛出一个异常,这个异常指出通道还没准备好发送消息。

    语法和websoket比较相似,用了send()和message()方法。

    通信是出现在两个浏览器之间的,所以RTCDataChannel会比WebSocket快一些。RTCDataChannel 支持Chrome, Opera和Firefox.。

    数据通道支持如下类型

    • 1、String:Javascript 基本的字符串
    • 2、Blob:一种文件格式的原始数据
    • 3、ArrayBuffer: 确定数组长度的数据类型
    • 4、ArrayBufferView:基础的数据视图
      将需要的变量传入send方法中,浏览器会做剩下的工作。你可以咋接收消息的一边通过测试来确定数据类型:
    dataChannel.onmessage = function(event){
        var data = event.data;
        if(data instanceof Blob){
            // 处理Blob
        }else if(data instanceof ArraBuffer){
            //处理ArrayBuffer
        }else if(data instanceof ArrayBufferView){
            // ArrayBufferView
        }else{
            //处理String
        }
    }
    

    加密与安全

    webRTC运行时,对于所有协议的实现,都会强烈执行加密功能。这意味着浏览器间的每一个对等连接,都自动处于高的安全级别中。所使用的加密技术都应该满足对等应用的以下几个要求:

    • 信息在传输过程中被窃取,无法进行读取
    • 第三方不能够伪造信息,是消息看上去像是链接者发送的
    • 消息在传输给另一方时不能进行编辑
    • 加密算法的快速性,一支持客户端之间的最大宽带

    为了满足各方面的需求,我们的协议使用的是DTLS

    • 安全传输层协议(TLS)用于在两个通信应用程序之间提供保密性和数据完整性。
      该协议由两层组成: TLS 记录协议(TLS Record)和 TLS 握手协议。
      TLS的流行是因为直接嵌入到应用层和传输层,是的很少甚至不需要改变应用本身的逻辑二使应用变得安全。使用TLS的唯一缺点就是它必须基于TCP的应用,但我们的webRTC协议并不是在其基础上工作的,

    • DTLS(Datagram Transport Layer Security)即数据包传输层安全性协议。
      DTLS源于希望能有一个像TLS一样简单易用的协议,但拥有UDP传输层的功能。它吸取了TLS协议许多相同的概念,并增加了对UDP的支持。

    到这里最大的收获,你需要知道数据通道和webRTC应用中,数据是安全的。


    problem progress

    1、信令(iceCandidate, sessionDescription)传输方式的选择

    要传输的信令包括两个部分:sessionDescription(也就是你传输的是什么?阿猫阿狗)和iceCandidate(以什么样的方式传输?火车空运)。为了便于传输可将其处理成字符串,另一端接收时还原并用对应的构造函数构造对应的实例即可。

    webRTC并没有规定信令的传输方式,而是完全由开发者自定义。常见的方式有短轮询webSocket(socket.io等)

    • 短轮询的优点无非是简单,兼容性强,但在并发量较大时,服务器负荷会很重。
    • webSocket就不存在这个问题,但webSocket搭建起来较为复杂,并不是所有的浏览器都支持websocket

    综合来说socket.io是个不错的解决方案,事件机制和自带的房间概念对撮合视频会话都是天然有利的,并且当浏览器不支持websocket时可以切换为轮询,也解决了兼容性的问题。

    webSocket属于长链接。

    2、STUN和TURN的概念

    • STUN服务器是用来取外网地址的。
    • TURN服务器是在P2P失败时进行转发的

    stun和turn服务的作用主要处理打洞与转发,配合完成ICE协议。
    首先尝试使用P2P,如果失败将求助于TCP,使用turn转发两个端点的音视频数据,turn转发的是两个端点之间的音视频数据不是信令数据。因为turn服务器是在公网上,所以他能被各个客户端找到,另外turn服务器转发的是数据流,很占用带宽和资源。

    3、webRTC移动端兼容性检测
    文章前面有getUserMedia及RTCPeerConnection的浏览器兼容写法

    4、如何配置MediaStreamConstraints
    约束项在文章前面部分

    5、如何高效跟踪错误
    整个双向视频涉及到的步骤较多,做好错误追踪是非常重要的。像getUserMedia时,一定要catch可能出现的异常。因为不同的设备,不同的浏览器或者说不同的用户往往不能完全满足我们设置的constraints。还有在实例化RTCPeerConnection时,往往会出现不可预期的错误,常见的有STUN、TURN格式不对,还有createOffer时传递的offerOptions格式不对,正确的应该为:

    const offerOptions = {
      'offerToReceiveAudio': true,
      'offerToReceiveVideo': true
    };
    

    这些问题还在思考中:
    1、如何实现截图及录制视频及上传图片和视频功能。
    2、两个不同的客户端实现对等连接的时候,如何获取对方的视频和音频?
    3、iceCandidate和sessionDescription设置的先后顺序


    notice

    考虑版本向上兼容,更要向下兼容!!!

    手动运行demo最简单方法就是cd到HTML文件所在目录下,然后python -m SimpleHTTPServer(装了python的话),然后在浏览器中输入http://localhost:8000/{文件名称}.html

    对video元素要特殊处理。设置autoPlay属性,对播放本地视频源的video还要设置muted属性以去除回音。针对IOS播放视频自动全屏的特性,还要设置playsinline属性的值为true

    通常有报道说一个平台支持WebRTC,一般都说他们支持getUserMedia,而不支持其它RTC组件,开发的时候需要先弄清楚。

    在非官方文档中,并非所有的信息都是正确的,有分歧的地方要学习实践检验(比如有些文档在使用getUserMedai的时候省略navigator,运行的时候会报错)。所以尽可能多看官方文档!

    google提供的实现stun协议的测试服务器(stun:stun.l.google.com:19302)


    参考资料:
    [1]通过WebRTC实现实时视频通信(三)
    [2]webRTC实战总结
    [3]WebRTC API
    [4]使用WebRTC搭建前端视频聊天室——入门篇
    [5]webrtc进阶-信令篇-之三:信令、stun、turn、ice
    [6]getUserMedai()视频约束
    [7]WebRTC1-原理探究

    ...还有很多

    相关文章

      网友评论

      • 0018e762bff0:我也关注这块,但是我太水了,不会弄:joy:
        耦耦:@罂厢墨己 我也是刚开始学:stuck_out_tongue_closed_eyes:

      本文标题:WebRTC 学习报告

      本文链接:https://www.haomeiwen.com/subject/sdfycftx.html