iOS 获取视频的任意一帧

作者: TomatosX | 来源:发表于2016-01-17 23:04 被阅读7676次

    项目要求根据服务器返回的视频和秒数,生成该视频的预览图。
    网上一搜关键词 “iOS 视频 帧” 结果都是:iOS如何获取视频的第一帧。
    但是如果我不想要第一帧,要第s秒的第x帧怎么办?
    先贴如何获取第一帧的代码:

    - (UIImage*) getVideoPreViewImage
    {
        AVURLAsset *asset = [[AVURLAsset alloc] initWithURL:videoPath options:nil];
        AVAssetImageGenerator *gen = [[AVAssetImageGenerator alloc] initWithAsset:asset];
        [asset release];
        gen.appliesPreferredTrackTransform = YES;
        CMTime time = CMTimeMakeWithSeconds(0.0, 600);
        NSError *error = nil;
        CMTime actualTime;
        CGImageRef image = [gen copyCGImageAtTime:time actualTime:&actualTime error:&error];
        UIImage *img = [[[UIImage alloc] initWithCGImage:image] autorelease];
        CGImageRelease(image);
        [gen release];
        return img;
    }
    

    这是很不求甚解的做法,有好多问题都没有考虑到。
    一般来说,如果我们打算求第x秒 看如上代码,想都不用想的就去把

    CMTime time = CMTimeMakeWithSeconds(0.0, 600);
    

    改成想要的时间了,但是,跑一下就会发现差强人意。为什么呢?我们先要说CMTime 是什么东西。

    CMTime 是一个用来描述视频时间的结构体。
    他有两个构造函数: * CMTimeMake * CMTimeMakeWithSeconds
    这两个的区别是 * CMTimeMake(a,b) a当前第几帧, b每秒钟多少帧.当前播放时间a/b * CMTimeMakeWithSeconds(a,b) a当前时间,b每秒钟多少帧.
    我们引用例子来说明它:

    CMTimeMakeWithSeconds

    Float64 seconds = 5;
    int32_t preferredTimeScale = 600;
    CMTime inTime = CMTimeMakeWithSeconds(seconds, preferredTimeScale);
    CMTimeShow(inTime);
    

    OUTPUT: {3000/600 = 5.000}
    代表当前时间为5s,视频一共有3000帧,一秒钟600帧

    CMTimeMake

    int64_t value = 10000;
    int32_t preferredTimeScale = 600;
    CMTime inTime = CMTimeMake(value, preferredTimeScale);
    CMTimeShow(inTime);
    

    OUTPUT: {10000/600 = 16.667}
    代表时间为16.667s, 视频一共1000帧,每秒600帧
    其实,在我们这里,我们关心的只有最后那个总时间。 换句话说,我们把那个(0, 600)换成(x, 600) 是没问题的… = =!
    requestedTimeTolerance

    那么为什么,效果差了这么多呢? 我们可以把

    CGImageRef image = [gen copyCGImageAtTime:time
                                       actualTime:&actualTime
                                            error:&error];
    

    返回的 actualTime 输出一下

    CMTimeShow(actualTime)
    

    就会发现时间差的很远。 这是为什么呢。

    首先他的 actualTime 使用的 fps * 1000 当每秒的帧率。 顺路普及下fps的获取方法

    float fps = [[[asset tracksWithMediaType:AVMediaTypeVideo] objectAtIndex:0] nominalFrameRate];
    

    然后我们来思考为什么要有 requestTime 和 actualTime 呢? 开始我对这个api 很困惑: 为什么我request的时间 不等于 actual

    后来查了一下文档。

    当你想要一个时间点的某一帧的时候,他会在一个范围内找,如果有缓存,或者有在索引内的关键帧,就直接返回,从而优化性能。

    这个定义范围的API就是 requestedTimeToleranceAfter 和 requestedTimeToleranceBefore

    如果我们要精确时间,那么只需要

     gen.requestedTimeToleranceAfter = kCMTimeZero;
     gen.requestedTimeToleranceBefore = kCMTimeZero;
    

    转自:

    相关文章

      网友评论

      • 3e8eb14bdf82:对于rmvb,mkv,avi等格式的视频,获取不到
        TomatosX:@binbins This media format is not supported.错误中已经说明了,不支持的格式。系统框架只支持MP4和MOV等
        3e8eb14bdf82:error:Error Domain=AVFoundationErrorDomain Code=-11828 "Cannot Open" UserInfo={NSLocalizedFailureReason=This media format is not supported., NSLocalizedDescription=Cannot Open, NSUnderlyingError=0x1c4659ad0 {Error Domain=NSOSStatusErrorDomain Code=-12847 "(null)"}}
      • A_rcher34:您好,我想每一秒获取一次当前帧,但是我用这个函数的时候,要过十几秒,才会获得一个图片刷新,而且开始的时候影驰copyCGImage失败: Error Domain=AVFoundationErrorDomain Code=-11829 "Cannot Open" UserInfo={NSLocalizedFailureReason=This media may be damaged., NSLocalizedDescription=Cannot Open, NSUnderlyingError=0x1c0249150 {Error Domain=NSOSStatusErrorDomain Code=-12848 "(null)"}}
      • 谢衣丶:请问一下 我想改变视频的尺寸 用了rendersize这个属性 但是并不起作用..
      • long弟弟:视频格式mp4是正常的,就是加载界面有点卡顿,估计没开线程吧
        幻醉:我想问下 我用文件路径可以获取到时间长度,但是用来获取图片 却获取不到
        TomatosX:数据处理的放在global线程,加载页面放在main线程

        ```swift
        DispatchQueue.global().async {
        // code
        DispatchQueue.main.async {
        // code
        }
        }
        ```
      • Skywang:我想问一下 如果我是想获得rtmp直播视频流的第一帧 这个方法行吗
      • puppySweet:这个框架能处理视频的尺寸么……控制播放速率和帧数
        TomatosX:@puppySweet 当然,AVPlayer比较底层点,可以对视频自由的控制,比MPMoviePlayerController更加的自由点,AVPlayer存在于AVFoundation中

      本文标题:iOS 获取视频的任意一帧

      本文链接:https://www.haomeiwen.com/subject/mylkkttx.html