美文网首页iOS OCstomp webSocket kurento xmppiOS
WebRTC-ios 跨平台音视频通话

WebRTC-ios 跨平台音视频通话

作者: 莪的世界木有如果 | 来源:发表于2018-09-19 13:34 被阅读180次

WebRTC的基础知识和实现原理可以参考这篇文章,ios下音视频通信的实现-基于WebRTC

上述文章里面也有介绍到WebRTC在ios下的环境搭建,这里介绍一个利用Pod导入的方法。WebRTC官网上有说到。

先附上本人自己写的demo下载地址,参照demo,会对这篇文章有更好的理解。WebRTCdemo地址

捷径:下面三步,现在可以一步就可以完成,就是直接在Podfile文件里面pod WebRTCHelper就可以了。这个WebRTCHelper是我传到pod上面的,只作参考

source 'https://github.com/CocoaPods/Specs.git'
target 'WebRTCHelper_pod' do
platform :ios, '9.0'
pod 'WebRTCHelper'
end

终端进入到项目文件夹中,输入:

pod install

运行结果如图:下面三个步骤要导入的工程,全部都pod进项目中了。


pod webRTCHelper

第一步:在你的Podfile文件里面加入下面这段代码

source 'https://github.com/CocoaPods/Specs.git'
target 'YOUR_APPLICATION_TARGET_NAME_HERE' do
  platform :ios, '9.0'
  pod 'GoogleWebRTC'
end

GoogleWebRTC就是WebRTC的ios版本frameWork。

第二步:导入需要用到的WebSocket库;在Podfile文件里面加入

pod 'SocketRocket'

第三步:创建WebRTC的管理类,命名为WebRTCHelper,继承NSObject,这个网上都有,我这里提供了一个WebRTCHelper

完成上面的步骤,基本的工作就做完了,接下来就是测试了。如果是局域网里面测试,我们可以用到前面推荐阅读的那篇文章快到底的地方有个关于说服务器端WebSocket搭建的,有直接给你写好的服务器,只需要简单的操作就可以完成测试服务的搭建。这里就不多阐述。

现在在网络上还有其他的集成方式主要是自己编译WebRTC的源码,然后拉入到自己的项目中,添加依赖库,这个方式比较繁琐,在编译的时候会出现各种问题。既然官方有提供这个pod的库,直接pod是最简单的。


第二部分

WebRTC环境搭建就是这样了!下面具体讲解下WebRTCHelper管理类里面的具体方法和代理:

WebRTCHelper.h文件
  • 1-1.声明一个单例
+(instancetype)shareInstance;
  • 1-2 声明四个public方法
/**
 * 与服务器建立连接
 * @param server 服务器地址
 * @param port 端口号
 * @param room 房间号
 */
-(void)connectServer:(NSString *)server port:(NSString *)port room:(NSString *)room;
/**
 * 切换摄像头
 */
-(void)swichCamera;
/**
 * 是否显示本地视频
 */
-(void)showLocaolCamera;
/**
 * 退出房间
 */
-(void)exitRoom;
  • 1-3 声明两个代理
/*注释*/
@property (nonatomic,weak) id<WebRTCHelperDelegate> delegate;
/*注释*/
@property (nonatomic,weak) id<WebRTCHelperFrindDelegate> friendDelegate;

WebRTCHelperDelegate代理方法:

/**
 * 获取到发送信令消息
 * @param webRTCHelper 本类
 * @param message 消息内容
 */
-(void)webRTCHelper:(WebRTCHelper *)webRTCHelper receiveMessage:(NSString *)message;
/**
 * 获取本地的localVideoStream数据(旧版本返回localStream方法)
 * @param webRTCHelper 本类
 * @param steam 视频流
 * @param userId 用户标识
 */
-(void)webRTCHelper:(WebRTCHelper *)webRTCHelper setLocalStream:(RTCMediaStream *)steam userId:(NSString *)userId;
/**
 * 获取远程的remoteVideoStream数据
 * @param webRTCHelper 本类
 * @param stream 视频流
 * @param userId 用户标识
 */
-(void)webRTCHelper:(WebRTCHelper *)webRTCHelper addRemoteStream:(RTCMediaStream *)stream userId:(NSString *)userId;
/**
 * 某个用户退出后,关闭用户的连接
 * @param webRTCHelper 本类
 * @param userId 用户标识
 */
- (void)webRTCHelper:(WebRTCHelper *)webRTCHelper closeWithUserId:(NSString *)userId;

/**
 * 获取socket连接状态
 * @param webRTCHelper 本类
 * @param connectState 连接状态,分为
 WebSocketConnectSuccess 成功,
 WebSocketConnectField, 失败
 WebSocketConnectClosed 关闭
 */
-(void)webRTCHelper:(WebRTCHelper *)webRTCHelper socketConnectState:(WebSocketConnectState)connectState;
/**
 * 获取本地视频流的AVCaptureSession(新版本实现本地视频展示代理)
 * @param webRTCHelper
 * @param captureSession AVCaptureSession类
 */
-(void)webRTCHelper:(WebRTCHelper *)webRTCHelper capturerSession:(AVCaptureSession *)captureSession;

WebRTCHelperFrindDelegate代理方法,这个代理方法是做房间用户列表所用:

/**
 * 获取房间内所有的用户(除了自己)
 * @param friendList 用户列表
 */
-(void)webRTCHelper:(WebRTCHelper *)webRTCHelper gotFriendList:(NSArray *)friendList;
/**
 * 获取新加入的用户信息
 * @param friendId 新用户的id
 */
-(void)webRTCHelper:(WebRTCHelper *)webRTCHelper gotNewFriend:(NSString *)friendId;
/**
 * 获取离开房间用户的信息
 * @param friendId 离开用户的ID
 */
-(void)webRTCHelper:(WebRTCHelper *)webRTCHelper removeFriend:(NSString *)friendId;
WebRTCHelper.m文件

.m里面的方法实现就按照整体的实现流程来说明:

  • 1、先与服务器建立起socket连接,这里要借助SRWebSocket库,见方法
/**
 * 与服务器进行连接
 */
- (void)connectServer:(NSString *)server port:(NSString *)port room:(NSString *)room{
    _server = server;
    _room = room;
    NSURLRequest *request = [NSURLRequest requestWithURL:[NSURL URLWithString:[NSString stringWithFormat:@"ws://%@:%@",server,port]] cachePolicy:NSURLRequestUseProtocolCachePolicy timeoutInterval:20];
    _socket = [[SRWebSocket alloc] initWithURLRequest:request];
    _socket.delegate = self;
    [_socket open];
}
  • 2、在与服务器建立连接之后,会调用SRWebSocket的代理,见代码
/**
 * webSocket连接成功
 */
- (void)webSocketDidOpen:(SRWebSocket *)webSocket{
    NSLog(@"socket连接成功");
    [self joinRoom:_room];
    dispatch_async(dispatch_get_main_queue(), ^{
        if ([self->_delegate respondsToSelector:@selector(webRTCHelper:socketConnectState:)]) {
            [self->_delegate webRTCHelper:self socketConnectState:WebSocketConnectSuccess];
        }
    });
}
/**
 * webSocket连接失败,返回失败原因
 */
- (void)webSocket:(SRWebSocket *)webSocket didFailWithError:(NSError *)error{
    NSLog(@"socket连接失败");
    dispatch_async(dispatch_get_main_queue(), ^{
        if ([self->_delegate respondsToSelector:@selector(webRTCHelper:socketConnectState:)]) {
            [self->_delegate webRTCHelper:self socketConnectState:WebSocketConnectSuccess];
        }
    });
}
/**
 * webSocket关闭连接,返回关闭的原因reason
 */
- (void)webSocket:(SRWebSocket *)webSocket didCloseWithCode:(NSInteger)code reason:(NSString *)reason wasClean:(BOOL)wasClean{
    NSLog(@"socket关闭。code = %ld,reason = %@",code,reason);
}
  • 3、在SRWebSocket的连接成功的代理里做加入房间操作,2步骤处有调用,加入房间就是socket发送一个__join的信令,现在看下加入房间里面的代码实现:
/**
 *  加入房间
 *
 *  @param room 房间号
 */
- (void)joinRoom:(NSString *)room
{
    //如果socket是打开状态
    if (_socket.readyState == SR_OPEN)
    {
        //初始化加入房间的类型参数 room房间号
        NSDictionary *dic = @{@"eventName": @"__join", @"data": @{@"room": room}};
        
        //得到json的data
        NSData *data = [NSJSONSerialization dataWithJSONObject:dic options:NSJSONWritingPrettyPrinted error:nil];
        //发送加入房间的数据
        [_socket send:data];
    }
}
  • 4、调用加入房间joinRoom:时,会发送__join信令到服务器,此时如果房间内有其他的用户,就会返回信令__peers,告诉你房间内有用户,需要建立连接,这个接收__Peers信令方法就是SRWebSocket的接收消息代理方法webSocket:(SRWebSocket *)webSocket didReceiveMessage:(id)message
  • 5、在方法webSocket:(SRWebSocket *)webSocket didReceiveMessage:(id)message里面的eventName==@"__peers"条件下,做以下操作:
    -- 5-1 对房间内其他的所有用户建立RTCPeerConnction连接[self createPeerConnections];
    -- 5-2 对建立的所有连接添加本地视频流[self addStreams];
    -- 5-3 发送本地的offer给到房间内所有的用户[self createOffers];
    这些操作完成后就可以和房间内其他人建立起视频聊天了;如果房间内没有其他用户的话,就不需要做多余的操作。
  • 6、针对房间内其他用户的加入,会在webSocket:(SRWebSocket *)webSocket didReceiveMessage:(id)message方法里面收到_new_peer信令,这个时候要针对这个用户创建一个RTCPeerConnection连接,然后给这个链接添加本地视频流,然后设置代理回调;
    -- 6-1、新加入的用户,会发送ice候选地址,就是通过ICEService服务器获取的地址,在webSocket:(SRWebSocket *)webSocket didReceiveMessage:(id)message方法里面的eventName_ice_candidate条件下有代码和说明;
    -- 6-2、先加入的用户还会发送本身的offer,也就是remote的sdp描述。在接收到新加入用户发的offer的时候,会获取到这个先加入用户的连接peerConnection,然后发送sdp描述对象;这个代码是在webSocket:(SRWebSocket *)webSocket didReceiveMessage:(id)message方法里面的eventName_offer的条件下。

注意的地方:

这这里需要注意一个方面就是针对最新库和比较旧的库之间在创建本地视频流创建视频约束的时候不一样的地方;

  • 创建本地视频流,在WebRTCHelper.m文件的createLocalStream方法里面的if(device){}条件下
    -- 最新版的库创建本地视频流的方法
//创建RTCVideoSource
RTCVideoSource *videoSource = [_factory videoSource];
//创建RTCCameraVideoCapturer
RTCCameraVideoCapturer * capture = [[RTCCameraVideoCapturer alloc] initWithDelegate:videoSource];
//创建AVCaptureDeviceFormat
AVCaptureDeviceFormat * format = [[RTCCameraVideoCapturer supportedFormatsForDevice:device] lastObject];   
//获取设备的fbs
CGFloat fps = [[format videoSupportedFrameRateRanges] firstObject].maxFrameRate;
//创建RTCVideoTrack
RTCVideoTrack *videoTrack = [_factory videoTrackWithSource:videoSource trackId:@"ARDAMSv0"];
__weak RTCCameraVideoCapturer *weakCapture = capture;
__weak RTCMediaStream * weakStream = _localStream;
__weak NSString * weakMyId = _myId;
//捕获摄像头的视频数据
[weakCapture startCaptureWithDevice:device format:format fps:fps completionHandler:^(NSError * error) {
      NSLog(@"11111111");
      [weakStream addVideoTrack:videoTrack];
      if ([self->_delegate respondsToSelector:@selector(webRTCHelper:setLocalStream:userId:)])
     {
  //在实现代理中,将weakCapture.captureSession设置到RTCCameraPreviewView的captureSession属性,视频才能显示
         [self->_delegate webRTCHelper:self capturerSession:weakCapture.captureSession];
       }
}];
  • 旧版库创建本视频流的方法
 /*旧版本创建videoSource是RTCAVFoundationVideoSource类,新版是RTCVideoSource,且创建的方法也不一样*/
RTCAVFoundationVideoSource *videoSource = [_factory avFoundationVideoSourceWithConstraints:[self localVideoConstraints]];
//创建RTCVideoTrack,这个方法没有什么变化
RTCVideoTrack *videoTrack = [_factory videoTrackWithSource:videoSource trackId:@"ARDAMSv0"];
//本地流添加RTCVideoTrack
[_localStream addVideoTrack:videoTrack];
//代理回调
 if ([self->_delegate respondsToSelector:@selector(webRTCHelper:setLocalStream:userId:)])
     {
  //将localStream中的videoTracks数据绑定到RTCEAGLVideoView类型localVideoView上,本地视频才会显示
         [self->_delegate webRTCHelper:self setLocalStream:weakStream userId:weakMyId];  
     }

WebRTCHelper.m文件里面就这么多主要的实现;然后看具体怎么去调用这些功能实现音视频通话。

第一、先定义以下的属性

/*保存远端视频流*/
@property (nonatomic,strong) NSMutableDictionary *videoTracks;
/*房间内其他用户*/
@property (nonatomic,strong) NSMutableArray *members;
//显示本地视频的view
@property (weak, nonatomic) IBOutlet RTCCameraPreviewView *localVideoView;

localVideView在最新库下,是RTCCameraPreviewView类型,如果是旧版本的话,是RTCEAGLVideoView类型

然后在viewDidLoad设置WebRTCHelper的代理为self

[WebRTCHelper shareInstance].delegate = self;
 [WebRTCHelper shareInstance].friendDelegate = self;

创建连接,连接到socket服务器上面
viewDidLoad

[self connect];
/**
 * 连接服务器
 */
-(void)connect{
//    [[WebRTCHelper shareInstance] connectServer:@"192.168.30.186" port:@"3000" room:@"100"];
    [[WebRTCHelper shareInstance] connectServer:@"115.236.101.203" port:@"18080" room:@"100"];
}

连接服务成功后,会在WebRTCHelper里面的socket代理里面调用joinRoom方法,然后会在WebRTCHelperDelegateWebRTCHelperFrindDelegate代理里面去获取数据,这里具体说下获取视频流的两个代理方法。

第一个代理方法是获取本地视频流的方法:

  • 旧版库本地代理获取方法:
/**
 * 旧版本获取本地视频流的代理,在这个代理里面会获取到RTCVideoTrack类,然后添加到RTCEAGLVideoView类型的localVideoView上面
 */
- (void)webRTCHelper:(WebRTCHelper *)webRTCHelper setLocalStream:(RTCMediaStream *)steam userId:(NSString *)userId{
    if (steam) {
        _localSteam = steam;
        RTCVideoTrack * track = [_localSteam.videoTracks lastObject];
        [track addRenderer:self.localVideoView];
    }
    
}

上面这个获取本地视频流的代理方法只针对旧版本才可以,注意当中的localVideoViewRTCEAGLVideoView类型的

  • 新版库获取本地视频流的方法
    -- 这个方式主要是获取到RTCCameraPreviewViewAVCaptureSession类型的属性数据
/**
 * 新版获取本地视频流的方法
 * @param captureSession RTCCameraPreviewView类的参数,通过设置这个,就可以达到显示本地视频的功能
 */
- (void)webRTCHelper:(WebRTCHelper *)webRTCHelper capturerSession:(AVCaptureSession *)captureSession{
    self.localVideoView.captureSession = captureSession;
}

第二就是获取远端视频流的方法:

/**
 * 获取远端视频流的方法,主要是获取到RTCVideoTrack类型的数据,然后保存起来,在刷新列表的时候,添加到对应item里面的RTCEAGLVideoView类型的view上面
 */
- (void)webRTCHelper:(WebRTCHelper *)webRTCHelper addRemoteStream:(RTCMediaStream *)stream userId:(NSString *)userId{
    RTCVideoTrack * track = [stream.videoTracks lastObject];
    if (track != nil) {
        [self.videoTracks setObject:track forKey:userId];
    }
        [self.collectionView reloadData];
}


主要的实现都在这里了,肯定是有不到位的地方,还希望浏览有心人士帮忙指出,共同进步。

相关文章

  • WebRTC-ios 跨平台音视频通话

    WebRTC-ios 跨平台音视频通话 https://www.jianshu.com/p/d5489a8fe2a9

  • WebRTC-ios 跨平台音视频通话

    WebRTC的基础知识和实现原理可以参考这篇文章,ios下音视频通信的实现-基于WebRTC。 上述文章里面也有介...

  • iOS WebRTC的使用

    WebRTC是Google公司的一款跨平台的音视频通话技术,它为我们提供了音视频通信的核心技术,包括音视频的采集、...

  • WebRTC知识整理

    WebRTC WebRTC实现了跨平台的音视频通话 WebRTC的架构 WebRTC的底层代码是C++实现的 并通...

  • iOS端实现WebRTC跨平台音视频通话

    最近根据项目需求,需要实现1对1视频通话,度娘一下很多例子,以为会一帆风顺,但是。。。 只能根据网上Demo自己就...

  • ubuntu下编译ffmpeg+x264库(android和Li

    前言 ffmpeg是一个跨平台的音视频处理库,为了跨平台那么就需要编译出适用于各个平台的ffmpeg库。前文分别实...

  • windows编译ffmpeg+x264库(android和li

    前言 ffmpeg是一个跨平台的音视频处理库,为了跨平台那么就需要编译出适用于各个平台的ffmpeg库。一般在wi...

  • FFmpeg Jni编译及音视频水印合成初识

    前言 FFmpeg 初识FFmpeg 是一个跨平台的音视频流方案,它提供了录制、转换以及流化音视频的完整解决方案,...

  • Linphone 培训课件

    linphone是一款老牌的全平台的多人语音视频通话业务的软件(始自2001年),不仅支持视频和语音通话,还支持即...

  • linphone-iphone的安装与调试

    linphone是一款老牌的全平台的多人语音视频通话业务的软件(始自2001年),不仅支持视频和语音通话,还支持即...

网友评论

    本文标题:WebRTC-ios 跨平台音视频通话

    本文链接:https://www.haomeiwen.com/subject/xxwygftx.html