美文网首页IOS 超级无敌iOS实用轮子
AVFoundation框架(四) - 视频的播放

AVFoundation框架(四) - 视频的播放

作者: ValienZh | 来源:发表于2017-02-21 16:23 被阅读575次

    视频播放

    播放视频是AVFoundation的最核心功能之一,这里我们将学习创建一个自定义视频播放器.

    1. 先了解关于播放功能的类

    • AVPlayer:
      AVPlayer是一个用来播放 基于时间的视听媒体 的管理对象.支持播放 本地,分布下载以及HTTP Live Streaming 协议等得到的流媒体.

    AVPlayer只管理一个单独资源的播放.如果你需要播放多个或循环播放时可以使用它的子类AVQueuePlayer.

    • AVPlayerLayer:
      由于AVPlayer是一个不可见组件,所以如果要将视频资源导出到用户界面的目标位置,我们需要使用AVPlayerLayer.
      AVPlayerLayer是构建于Core Animation之上的可视化组件,是扩展了的CALayer类,作为视频内容的渲染面来在屏幕上显示视频.
      因此,创建AVPlayerLayer需要一个指向AVPlayer对象的指针,来将图层和播放器紧密绑定在一起,从而保证当播放器基于时间的方法出现时二者能保持同步.

    AVPlayerLayer使用比较简单,所以供开发者自定义的地方也少.只有一个videoGravity属性.它定义了三个不同的gravity值,用来确定在承载层的范围内 视频可以拉伸或缩放的 程度.

    • AVPlayerItem:
      我们最终目的是使用AVPLayer来播放AVAsset. 但是AVAsset只包含媒体资源的不可变的静态信息.我们无法获取播放的当前时间等动态信息.所以引入AVPlayerItemAVPlayerItemTrack来构建相应的动态内容.
      AVPlayerItem会建立媒体资源动态视角的数据模型 并保存AVPlayer在播放资源时的呈现状态.

    AVPlayerItem由一个或多个媒体曲目组成,跟AVAsset中AVAssetTrack对应. AVPlayerItemTrack实例则用于表示播放器条目中的类型统一的媒体流.比如音频流, 视频流.

    // 应用流程
    //1. 创建AVAsset
    AVAsset *asset = [AVAsset assetWithURL:assetURL];
    //2. 创建对应播放元素
    AVPlayerItem *playerItem = [AVPlayerItem playerItemWithAsset:asset];
    //3. 创建播放器
    AVPlayer *player = [AVPlayer playerWithPlayerItem: playerItem];
    //4. 创建视频显示的图层.
    AVPlayerLayer * playerLayer = [AVPlayerLayer playerLayerWithPlayer: player];
    // 最后添加图层到view上
    

    当然,上面只是基本步骤,真正应用时还要看当前媒体是否已经加入到了播放队列中,播放器是否准备完全. 可以使用KVO监听AVPlayerItem的status属性得知.

    • 补充:CMTime
      AVPlayer和AVPlayerItem都是基于时间的对象. AVFoundation使用CMTime数据结构为时间表示. 它属于基于C的底层CoreMedia框架.使用更精确的分数格式来处理时间数据.
    typedef struct {
      CMTimeValue value;
      CMTimeScale timescale;
      CMTimeFlags flags;
      CMTimeEpoch epoch; 
    } CMTime; 
    
    // 创建时间例子
    CMTime halfSecond = CMTimeMake(1,2);          // 0.5s
    CMTime fiveSeconds = CMTimeMake(5,1);        // 5s
    CMTime time = CMTimeMake(1,44100);            // 44.1赫兹 
    

    2. 视频播放器

    2.1 创建视频视图UIView.

    由上面的类介绍可知,我们要创建视频视图就是使用了AVPlayerLayer图层的UIView. 我们既可以手动创建layer并添加到UIView的原有图层,也可以重写layerClass方法自定义view的图层类型来使用. 推荐第二种方法, 这样就不用考虑图层级关系了.

    // THPlayerView.m
    + (Class)layerClass {                                                       
        return [AVPlayerLayer class];
    }
    
    - (id)initWithPlayer:(AVPlayer *)player {
        if (self = [super initWithFrame:CGRectZero]) {
            self.backgroundColor = [UIColor blackColor];
            self.autoresizingMask = UIViewAutoresizingFlexibleHeight |
                                    UIViewAutoresizingFlexibleWidth;
      // 使之成为AVPlayer实例视频输出的图层
            [(AVPlayerLayer *) [self layer] setPlayer:player];                  
      // THOverlayView-操作视频交互界面.
            [[NSBundle mainBundle] loadNibNamed:@"THOverlayView"                
                                          owner:self
                                        options:nil];
            
            [self addSubview:_overlayView];
        }
        return self;
    }
    
    2.2 创建视频控制器
    static const NSString *PlayerItemStatusContext;
    
    - (id)initWithURL:(NSURL *)assetURL {
        if (self = [super init]) {
      // 加载本地或远端视频资源
            _asset = [AVAsset assetWithURL:assetURL];                           
            [self prepareToPlay];
        }
        return self;
    }
    
    - (void)prepareToPlay {
        NSArray *keys = @[
            @"tracks",
            @"duration",
            @"commonMetadata",
            @"availableMediaCharacteristicsWithMediaSelectionOptions"
        ];
    // iOS 7之后可自动载入资源属性.不需要再调用loadValuesAsynchronouslyForKeys
        self.playerItem = [AVPlayerItem playerItemWithAsset:self.asset          
                               automaticallyLoadedAssetKeys:keys];
    // 监听 playerItem 状态是否准备完全.
        [self.playerItem addObserver:self                                       
                          forKeyPath:STATUS_KEYPATH
                             options:0
                             context:&PlayerItemStatusContext];
    // 创建视频视图
        self.player = [AVPlayer playerWithPlayerItem:self.playerItem];          
        self.playerView = [[THPlayerView alloc] initWithPlayer:self.player];    
    }
    
    // KVO实现- 监听状态改变
    - (void)observeValueForKeyPath:(NSString *)keyPath
                          ofObject:(id)object
                            change:(NSDictionary *)change
                           context:(void *)context {
        
        if (context == &PlayerItemStatusContext) {
            dispatch_async(dispatch_get_main_queue(), ^{     
                [self.playerItem removeObserver:self forKeyPath:STATUS_KEYPATH];
                
                if (self.playerItem.status == AVPlayerItemStatusReadyToPlay) {
    /*
                    // 此部分设置播放器的时间监听. 下面小结会介绍这个功能
                    [self addPlayerItemTimeObserver];
                    [self addItemEndObserverForPlayerItem];
    
                 // transport 是自定义的关联属性,用来沟通交互界面和实际视频播放状态信息.
                    CMTime duration = self.playerItem.duration; 
                      // 设置当前时间和视频总长.将用户界面的时间和播放媒体进行同步 .
                    [self.transport setCurrentTime:CMTimeGetSeconds(kCMTimeZero)
                                          duration:CMTimeGetSeconds(duration)];
                      // 传递视频标题, AVAsset没有title属性,这是分类添加的,增加可读性.
                    [self.transport setTitle:self.asset.title];                 
    */
                    // 播放
                    [self.player play];                                         
                } else {
                    [UIAlertView showAlertWithTitle:@"Error"
                                            message:@"Failed to load video"];
                }
            });
        }
    }
    

    通过上面代码视频资源就可以播放了.但是还需要提供用户界面的控制功能,反馈信息.

    2.3 时间监听

    上面使用了KVO来监听播放条目的status属性,KVO确实可以监听AVPlayerItem和AVPlayer很多属性,但是对于AVPlayer的时间变化这种明显动态特性和非常高的精确度要求,KVO难以胜任.
    对此AVPlayer提供了两种基于时间方法进行监听:

    • 定期监听:
      一定时间间隔获得通知(如更新时间变化,进度条的移动).
    - (void)addPlayerItemTimeObserver {
        // 创建0.5s的刷新间隔
        CMTime interval =
            CMTimeMakeWithSeconds(0.5f, NSEC_PER_SEC);             
        // 一般主线程更新UI,所以用主队列.
        dispatch_queue_t queue = dispatch_get_main_queue();               
        __weak THPlayerController *weakSelf = self;                             
        void (^callback)(CMTime time) = ^(CMTime time) {
            NSTimeInterval currentTime = CMTimeGetSeconds(time);
            NSTimeInterval duration = CMTimeGetSeconds(weakSelf.playerItem.duration);
            [weakSelf.transport setCurrentTime:currentTime duration:duration];  // 回调传入最新值
        };
        
    // 返回id型指针, 后面会用此移除监听器. [self.player removeTimeObserver:self.timeObserver];
        self.timeObserver =                                                     
            [self.player addPeriodicTimeObserverForInterval:interval
                                                      queue:queue
                                                 usingBlock:callback];
    }
    
    • 边界监听:
      监听视频播放视频通过自定义时间轴边界点.例如播放到25%,50%等.
      - (id)addBoundaryTimeObserverForTimes:(NSArray<NSValue *> *)times queue:(nullable dispatch_queue_t)queue usingBlock:(void (^)(void))block;
    • 条目结束监听:
      还有一个常见监听事件就是播放完毕的时间.当视频播放完毕,AVPlayerItem会发送一个AVPlayerItemDidPlayToEndTimeNotification通知.
    2.4 视频缩略图

    现在流行用视频中一个或多个缩略图作为视频封面. 通过AVAssetImageGenerator类可以实现.
    它定义了两个方法实现从视频资源中检索图片.:

    • - (nullable CGImageRef)copyCGImageAtTime:(CMTime)requestedTime actualTime:(nullable CMTime *)actualTime error:(NSError * _Nullable * _Nullable)outError CF_RETURNS_RETAINED; 在指定时间点捕捉图片.
    • - (void)generateCGImagesAsynchronouslyForTimes:(NSArray<NSValue *> *)requestedTimes completionHandler:(AVAssetImageGeneratorCompletionHandler)handler; 在指定时间段生成一个图片序列.

    AVAssetImageGenerator可以生成本地图片,也能生成持续下载的资源.

    // 1 创建AVAssetImageGenerator
        self.imageGenerator = [AVAssetImageGenerator assetImageGeneratorWithAsset:self.asset];
        // 2. 配置生成图片大小 @2x.
        self.imageGenerator.maximumSize = CGSizeMake(200.0f, 0.0f);
        // 3. 计算视频中捕捉位置.  均分20份.
        CMTime duration = self.asset.duration;
        NSMutableArray *times = [NSMutableArray array];
        CMTimeValue increment = duration.value / 20;
        CMTimeValue currentValue = 2.0 * duration.timescale;
        while (currentValue <= duration.value) {
            CMTime time = CMTimeMake(currentValue, duration.timescale);
            [times addObject:[NSValue valueWithCMTime:time]];
            currentValue += increment;
        }
    
        __block NSUInteger imageCount = times.count;
        __block NSMutableArray *images = [NSMutableArray array];
        // 定义handler
        AVAssetImageGeneratorCompletionHandler handler;
        handler = ^(CMTime requestedTime, // 请求的最初时间,对应于生成图像的调用中指定的times数组中的值.
                    CGImageRef imageRef, // 生成的CGImageRef.
                    CMTime actualTime,   // 图片实际生成的时间.基于实际效率.
                    AVAssetImageGeneratorResult result,
                    NSError *error) {
    
            if (result == AVAssetImageGeneratorSucceeded) { // 图片生成成功.保存图片和对应时间点到thumbnail 模型中
              UIImage *image = [UIImage imageWithCGImage:imageRef];
                id thumbnail =
                    [THThumbnail thumbnailWithImage:image time:actualTime];
                [images addObject:thumbnail];
            } else {
                NSLog(@"Error: %@", [error localizedDescription]);
            }
    
            // 每次调用减一,为0表示所有图片处理完成.
            if (--imageCount == 0) {
                dispatch_async(dispatch_get_main_queue(), ^{
                    NSString *name = THThumbnailsGeneratedNotification;
                    NSNotificationCenter *nc = [NSNotificationCenter defaultCenter];
                    [nc postNotificationName:name object:images];
                });
            }
        };
      
      // 调用
        [self.imageGenerator generateCGImagesAsynchronouslyForTimes:times
                                                  completionHandler:handler];
    
    2.5 显示字幕

    AVFoundation提供了展示和隐藏字幕的方法,AVPlayerLayer会自动渲染这些元素. 这里要使用两个类:AVMediaSelectionGroupAVMediaSelectionOption

    • AVMediaSelectionOption :表示AVAsset中备用的媒体呈现方式. 例如通常一个资源可能包含中英双音频,不同指定语言的字幕等备用选择. AVAsset有一个availableMediaCharacteristicsWithMediaSelectionOptions字符串数组属性, 保存了这些可用选项的媒体特征. 特征这些具体来说有AVMediaCharacteristicAudible(音频),AVMediaCharacteristicLegible(字幕或隐式字幕)AVMediaCharacteristicVisual(视频)三方面.
    • AVMediaSelectionGroup:而这个则作为上面类的实例容器,因为通常一个资源可以有一个和多个互斥的AVMediaSelectionOption实例可供选择.
    // 检索资源备用呈现方式.(首先需要在一开始加载资源时,添加上availableMediaCharacteristicsWithMediaSelectionOptions属性.参考上面- (void)prepareToPlay 方法)
    - (void)loadMediaOptions { 
    // 这里只检索字幕相关的选项
        NSString *mc = AVMediaCharacteristicLegible;                            
        AVMediaSelectionGroup *group =
            [self.asset mediaSelectionGroupForMediaCharacteristic:mc];          
        if (group) {            
            for (AVMediaSelectionOption *option in group.options) {
              NSLog(@"字幕可选方式: %@", option.displayName);
            }
        } 
    }
    // 选择想要的呈现方式.
    - (void)subtitleSelected:(NSString *)subtitle {
        NSString *mc = AVMediaCharacteristicLegible;
        AVMediaSelectionGroup *group =
            [self.asset mediaSelectionGroupForMediaCharacteristic:mc];          
        BOOL selected = NO;
        for (AVMediaSelectionOption *option in group.options) {
        // 遍历所有组选项,找到匹配你要的option.
            if ([option.displayName isEqualToString:subtitle]) {
            // 激活选择
                [self.playerItem selectMediaOption:option                       
                             inMediaSelectionGroup:group];
                selected = YES;
            }
        }
        if (!selected) {
            [self.playerItem selectMediaOption:nil                              
                         inMediaSelectionGroup:group];
        }
    }
    

    3. 整合AirPlay

    AirPlay是苹果旨在用无线方式将流媒体内容在Apple TV或第三方音频系统上播放.
    AVPlayer有一个allowsExternalPlayback属性,允许启用AirPlay功能,默认是YES.

    • 线路选择功能
      在播放过程中上滑就能打开系统AirPlay界面,但是其实应用内部也可以提供AirPlay线路选择界面.
    UIImage *airplayImage = [UIImage imageNamed:@"airplay"];
        self.volumeView = [[MPVolumeView alloc] initWithFrame:CGRectZero];
        self.volumeView.showsVolumeSlider = NO;
        self.volumeView.showsRouteButton = YES;
        [self.volumeView setRouteButtonImage:airplayImage forState:UIControlStateNormal];
        
        [self.volumeView sizeToFit];
    
        NSMutableArray *items = [NSMutableArray arrayWithArray:self.toolbar.items];
        UIBarButtonItem *item = [[UIBarButtonItem alloc] initWithCustomView:self.volumeView];
        [items addObject:item];
        self.toolbar.items = items;
    

    4. AVKit

    AVKit简化了视频播放器的创建过程,它使用苹果原生的视频界面,不需要我们过多的自定义.如果你只是在项目中需要简单的播放功能,推荐使用AVKit.
    iOS平台AVkit是一个简单的标准框架,只包含一个AVPlayerViewController类.用于展示并控制AVPlayer实例的播放.具有简单的界面,提供以下几个属性和方法:

    AVPlayerViewController提供的属性和方法
    使用方法也十分简单
    NSString * path = [[NSBundle mainBundle]pathForResource:@"iphone" ofType:@"mp4"];
    NSURL *url = [NSURL fileURLWithPath:path];
    AVPlayerViewController *playerVC = [[AVPlayerViewController alloc] init];
    playerVC.player = [AVPlayer playerWithURL:url];
    [self presentViewController:play animated:YES completion:nil];
    

    iOS 8之前提供了MPMoviePlayerController和MPMoviePlayerViewController两个类,它们提供了一种简单的方法将完整视频播放功能整合到应用中,相比较与AVKit, MPMoviePlayerController定义了一些标准播放控件,供我们选择,但是同时它将所有基础功能隐藏,让开发者无法使用AVPlayer层的更高级的基础功能.所以iOS9之后被易用.
    而新的AVKit提供了一种动态播放控件,自动为用户提供最好的体验. 并且AVPlayerViewController也支持开发者使用AVPlayer更高级的功能.

    相关文章

      网友评论

        本文标题:AVFoundation框架(四) - 视频的播放

        本文链接:https://www.haomeiwen.com/subject/ulncwttx.html