美文网首页ios那些事儿iOS的新技术iOS开发
iOS视频开发-AVPlayer播放本地、远程视频

iOS视频开发-AVPlayer播放本地、远程视频

作者: 小小土豆dev | 来源:发表于2016-11-09 21:27 被阅读6512次

    介绍AVPlayer使用之前,先给大家介绍一些《iOS常用的音频、视频框架》,大家了解一下,不必刻意去记,如果以后需要用到,再回过头查询。

    一:MediaPlayer 框架

    Media Player 框架是 iOS 平台上一个用于音频和视频播放的高层级接口,它包含了一个你可以在应用中直接使用的默认的用户界面。你可以使用它来播放用户在 iPod 库中的项目,或者播放本地文件以及网络流。

    另外,这个框架也包括了查找用户媒体库中内容的 API,同时还可以配置像是在锁屏界面或者控制中心里的音频控件。

    二:AudioToolbox 框架

    AudioToolbox 这个库是C的接口,偏向于底层,用于在线流媒体音乐的播放,可以调用该库的相关接口自己封装一个在线播放器类。

    三:AVFoundation 框架

    AVFoundation 框架 是苹果的现代媒体框架,它包含了一些不同的用途的 API 和不同层级的抽象。其中有一些是现代 Objective-C 对于底层 C 语言接口的封装。除了少数的例外情况,AVFoundation 可以同时在 iOS 和 OS X 中使用。

    AVFoundation 框架中常用的API:

    AVAudioSession:是用于 iOS 系统中协调应用程序之间的音频播放的 API 的。

    AVAudioPlayer:是一个高层级的 API 为你提供一个简单的接口,用来播放本地或者内存中的音频。

    AVAudioRecorder:叫做录音机,提供了在应用程序中的音频记录能力。

    AVPlayer:能播放本地、远程的音频、视频文件。基于Layer显示,得自己去编写控制面板。

    AVAudioEngine:是播放和录制的 Objective-C 接口。

    四:Audio Unit 框架

    Audio Unit 框架是一个底层的 API;所有 iOS 中的音频技术都构建在 Audio Unit 这个框架之上。音频单元是用来加工音频数据的插件。一个音频单元链叫做音频处理图。

    如果你需要非常低的延迟 (如 VoIP 或合成乐器)、回声消除、混音或者音调均衡的话,你可能需要直接使用音频单元,或者自己写一个音频单元。但是其中的大部分工作可以使用 AVAudioEngine 的 API 来完成。如果你不得不写自己的音频单元的话,你可以将它们与 AVAudioUnit 节点一起集成在 AVAudioEngine 处理图中。


    MediaPlayer 使用

    1、获取视频的URL

    NSURL *url = [NSURL URLWithString:@"http://images.apple.com/media/cn/apple-events/2016/5102cb6c_73fd_4209_960a_6201fdb29e6e/keynote/apple-event-keynote-tft-cn-20160908_1536x640h.mp4"];

    2、创建视频控制器

    MPMoviePlayerViewController *playerViewController= [[MPMoviePlayerViewController alloc] initWithContentURL:url];

    3.播放视频

    [self presentMoviePlayerViewControllerAnimated:playerViewController];


    AVPlayer 使用

    在开发中,单纯使用AVPlayer类是无法显示视频的,要将视频层添加至AVPlayerLayer中,这样才能将视频显示出来。

    1、先将在线视频链接存放在NSURL中,然后初始化AVPlayerItem对象,AVPlayerItem是管理资源的对象。

    2、然后监听AVPlayerItem的 status 和 loadedTimeRange 属性,status 属性有三种状态:

    typedef NS_ENUM(NSInteger, AVPlayerItemStatus) {

       AVPlayerItemStatusUnknown,

       AVPlayerItemStatusReadyToPlay,

       AVPlayerItemStatusFailed

    };

    1、当 AVPlayerItem 的 status 等于AVPlayerStatusReadyToPlay时代表视频已经可以播放了,我们就可以调用play方法播放了。

    2、loadedTimeRange 属性代表已经缓冲的进度,监听此属性可以在UI中更新缓冲进度。

    3、addPeriodicTimeObserverForInterval

    给AVPlayer 添加time Observer 有利于我们去检测播放进度。

    4、使用 AVPlayer 对象的 seekToTime 方法 可以控制视频播放进度。


    下面是具体的代码(Demo地址),先给大家截图,看一下完整的效果:

    视频截图

    第一步:初始化 播放器对象 以及 播放器层。

    - (void)initPlayer{

    / /创建播放器层

    AVPlayerLayer*playerLayer = [AVPlayerLayer playerLayerWithPlayer:self.player];

    playerLayer.frame = self.view.bounds;

    [self.view.layer addSublayer:playerLayer];

    }

    //初始化播放器

    -(AVPlayer*)player{

    if(!_player) {

    NSURL*url = [NSURLURLWithString:@"http://images.apple.com/media/cn/apple-events/2016/5102cb6c_73fd_4209_960a_6201fdb29e6e/keynote/apple-event-keynote-tft-cn-20160908_1536x640h.mp4"];

    AVPlayerItem*playerItem=[AVPlayerItem playerItemWithURL:url];

    _player= [AVPlayer playerWithPlayerItem:playerItem];

    // 通过 KVO 监听AVPlayerItem的status和loadedTimeRange属性

    [self addObserverToPlayerItem:playerItem];

    // 给播放器添加进度更新 addPeriodicTimeObserverForInterval

    [self addProgressObserver];

    //给AVPlayerItem添加播放完成通知

    [self addNotification];

    }

    return_player;

    }

    第二步:通过 KVO 监听AVPlayerItem的status和loadedTimeRange属性

    -(void)addObserverToPlayerItem:(AVPlayerItem*)playerItem {

    //监控状态属性,注意AVPlayer也有一个status属性,通过监控它的status也可以获得播放状态

    [playerItemaddObserver:selfforKeyPath:@"status"options:NSKeyValueObservingOptionNewcontext:nil];

    //监控网络加载情况属性

    [playerItemaddObserver:selfforKeyPath:@"loadedTimeRanges"options:NSKeyValueObservingOptionNewcontext:nil];

    }

    -(void)observeValueForKeyPath:(NSString*)keyPath ofObject:(id)object change:(NSDictionary*)change context:(void*)context {

    AVPlayerItem*playerItem=object;

    if([keyPathisEqualToString:@"status"]) {

    AVPlayerStatusstatus= [[changeobjectForKey:@"new"]intValue];

    if(status==AVPlayerStatusReadyToPlay){

    NSLog(@"正在播放...,视频总长度:%.2f",CMTimeGetSeconds(playerItem.duration));

    }

    }elseif([keyPathisEqualToString:@"loadedTimeRanges"]){

    NSArray*array=playerItem.loadedTimeRanges;

    CMTimeRangetimeRange = [array.firstObjectCMTimeRangeValue];//本次缓冲时间范围

    floatstartSeconds =CMTimeGetSeconds(timeRange.start);

    floatdurationSeconds =CMTimeGetSeconds(timeRange.duration);

    NSTimeIntervaltotalBuffer = startSeconds + durationSeconds;//缓冲总长度

    NSLog(@"共缓冲:%.2f",totalBuffer);

    }

    }

    第三步:给播放器添加进度更新 addPeriodicTimeObserverForInterval

    -(void)addProgressObserver{

    AVPlayerItem*playerItem=self.player.currentItem;

    UIProgressView*progress=self.progress;

    //这里设置每秒执行一次

    [self.playeraddPeriodicTimeObserverForInterval:CMTimeMake(1.0,1.0)queue:dispatch_get_main_queue()usingBlock:^(CMTimetime) {

    floatcurrent=CMTimeGetSeconds(time);

    floattotal=CMTimeGetSeconds([playerItemduration]);

    NSLog(@"当前已经播放%.2fs.",current);

    ];

    }

    第四步:给AVPlayerItem添加播放完成通知

    - (void)addNotification {

    [[NSNotificationCenterdefaultCenter]addObserver:self

    selector:@selector(playbackFinished:)

    name:AVPlayerItemDidPlayToEndTimeNotification

    object:self.player.currentItem];

    }

    //播放完成通知

    -(void)playbackFinished:(NSNotification*)notification{

       NSLog(@"视频播放完成.");

    }

    第五步:播放、暂停视频

    [self.player play];//播放视频

    [self.player pause];//暂停视频

    以上五步就是播放视频的基本步骤,如果上面的代码让你看的头疼,你也可以去下载文中的代码,根据Demo效果一步一步去看这些方法(Demo中的代码更复杂一些)。

    注意:如果你是将文中的代码拷贝到你新建的工程,记得在 Info.plist 中添加

    Info.plist截图

    允许工程支持HTTP协议(因为文中演示视频是HTTP协议视频)。

    相关文章

      网友评论

      本文标题:iOS视频开发-AVPlayer播放本地、远程视频

      本文链接:https://www.haomeiwen.com/subject/tgxvuttx.html