美文网首页
AVFoundation 视频剪切合成

AVFoundation 视频剪切合成

作者: 飛天江郎 | 来源:发表于2020-05-13 19:35 被阅读0次

    本篇将要用到的是AVMutableComposition ,这是一个将现有的媒体资源进行合并剪切成一个新的视频、音频的类。它提供了以下功能:

    • 添加/删除音视频轨道
    • 选择音视频轨道的时间段

    AVMutableComposition是继承自AVComposition。简单的来说,AVComposition就是将来自多个基于源文件的媒体数据组合在一起显示,或处理来自多个源媒体数据的东西。它是继承自AVAsset也就是说这都是一家子的东西。如果想更多的了解AVMutableCompositionAVComposition的区别的话,建议看一下这篇文章:《OC之合成资源AVComposition》
    话不多说,我们先来看看,这个东西应该怎么应用起来吧。
    这里大家可以先理解它其实就是一个容器,需要我们放入各种各样的音视频媒体数据,去订制出我们所希望得到的东西,当然正式导出生成视频的是另一个东西:AVAssetExportSession
    首先我们导入了需要进行合并的媒体资源文件:

           path = Bundle.main.path(forResource: "IMG_2735", ofType: "mp4")
           let url = URL.init(fileURLWithPath: path)
           let options = [AVURLAssetAllowsCellularAccessKey:false,AVURLAssetPreferPreciseDurationAndTimingKey:true]
           firstAsset = AVURLAsset.init(url: url, options: options)
           
           let voicePath = Bundle.main.path(forResource: "SuperMarioBros", ofType: "mp3")
           let url2 = URL.init(fileURLWithPath: voicePath!)
           secAsset = AVURLAsset.init(url: url2)
           
           let voicePath2 = Bundle.main.path(forResource: "MaiDou", ofType: "mp3")
           let url3 = URL.init(fileURLWithPath: voicePath2!)
           let thireAsset = AVURLAsset.init(url: url3)
           
           let videoAssetTrack = firstAsset.tracks(withMediaType: .video).first
           let audioAssetTrack = secAsset.tracks(withMediaType: .audio).first
           let audioAssetTrack2 = thireAsset.tracks(withMediaType: .audio).first
    

    然后我们再来初始化一下容器AVMutableComposition,并创建对应要放内容的轨道

    //合成器
    composotion = AVMutableComposition.init()
      //视频轨道
    let videoCompostiontrack = composotion.addMutableTrack(withMediaType: .video, preferredTrackID: kCMPersistentTrackID_Invalid)
            //音频轨道1
    let audioCompostiontrack = composotion.addMutableTrack(withMediaType: .audio, preferredTrackID: kCMPersistentTrackID_Invalid)
            //音轨2
    let audioCompositiontrack2 = composotion.addMutableTrack(withMediaType: .audio, preferredTrackID: kCMPersistentTrackID_Invalid)
    

    这里导入了一个视频文件内容还有,两个音频轨道的内容
    这里需要说明一下kCMPersistentTrackID_Invalid这个ID是用来指定当前所有的资源信息,放到一个Composition里,是准备合成一个的标记。

    再把这上面的三个资源都放入里面,在放进去的时候,需要选择每一个资源的时间起止,通过这样来进行准确的混合:

    //为视频轨道放入视频
    let v = 0.8 * Float(firstAsset.duration.seconds) * videoAssetTrack!.nominalFrameRate
    let e = 0.1 * Float(firstAsset.duration.seconds) * videoAssetTrack!.nominalFrameRate
    let v_start = CMTime.init(value: CMTimeValue(v), timescale: CMTimeScale(videoAssetTrack!.nominalFrameRate))
    let v_endTime = CMTime.init(value: CMTimeValue(e), timescale: CMTimeScale(videoAssetTrack!.nominalFrameRate))
    print(v_start.seconds)
    print(v_endTime.seconds)
    let theTime = CMTimeRangeMake(start: v_start, duration: v_endTime)
            
    try?videoCompostiontrack?.insertTimeRange(theTime, of: videoAssetTrack!, at: CMTime.zero)
    //为音频轨道放入音频
    let theTimeAudio = CMTimeRangeMake(start: CMTime.zero, duration: CMTime.init(value: CMTimeValue(e*0.65), timescale: CMTimeScale(videoAssetTrack!.nominalFrameRate)))
    try?audioCompostiontrack?.insertTimeRange(theTimeAudio, of: audioAssetTrack!, at: CMTime.zero)
    //为音频轨道放入音频2
    let theTimeAudio2 = CMTimeRangeMake(start: CMTime.zero, duration: (audioAssetTrack2?.timeRange.duration)!)
            
    let st2 = CMTime.init(value: CMTimeValue(e*0.65), timescale: CMTimeScale(videoAssetTrack!.nominalFrameRate))
    print(st2.seconds)
    try?audioCompositiontrack2?.insertTimeRange(theTimeAudio2, of: audioAssetTrack2!, at: st2)
    

    这里需要提醒一下的是,由于每个资源文件的时间帧间隔都有可能存在差异性,所以当为视频轨道配上音频轨道的时候,最好以视频轨道的时间帧间隔作为基准来设置截取的时间段,不然就有可能出现音视频的同步和想象中的不一样的问题。
    同样的音视频的裁剪截取、视频帧获取等等,都离不开关键的CMTime,还不了解这个的,需要在进一步的学习高浩浩浩浩浩浩

    最后,需要把这个容器内的音视频轨道资源,导出成一个新的文件,这时候就需要用到导出类AVAssetExportSession

    
            let exporter = AVAssetExportSession.init(asset: composotion, presetName: AVAssetExportPresetHighestQuality)
            let path = NSSearchPathForDirectoriesInDomains(.documentDirectory, .userDomainMask, true).first
            let filePath = path!+"/test.mp4"
            try?FileManager.default.removeItem(atPath: filePath)
            
            exporter?.outputURL = URL.init(fileURLWithPath: filePath)
            
            exporter?.outputFileType = .mp4
            exporter?.shouldOptimizeForNetworkUse = true
            exporter?.exportAsynchronously(completionHandler: {
                if exporter?.error != nil{
                    print(exporter?.error)
                }else{
                
                }
                DispatchQueue.main.async {
                    self.playIt(url: URL.init(fileURLWithPath: filePath))
                }
            })
    

    为了验证我们最后是不是成功导出了该视频,我决定在导出成功之后,使用AVPlayer来播放一下:

        func playIt(url:URL) {
            let item = AVPlayerItem.init(url: url)
            let player = AVPlayer.init(playerItem: item)
            let layer = AVPlayerLayer.init(player: player)
            layer.frame = playerImgv.frame
            layer.videoGravity = .resizeAspect
            playerImgv.layer.addSublayer(layer)
            player.play()
        }
    

    后面或有更多AVFoundation的相关知识记录在此,欢迎关注。

    相关文章

      网友评论

          本文标题:AVFoundation 视频剪切合成

          本文链接:https://www.haomeiwen.com/subject/rmyonhtx.html