在此之前需要了解视频的组成
视频是由多张图片不间断连续播放形成的,所有的视频扩展属性其实都是对图片间隔,压缩比,宽高比进行调整,当然除了图片自身的像素点处理,这里需要对openGL了解透彻(https://www.shangmayuan.com/a/db8f23382bf6427da7ca0218.html)。
编码格式:一个视频文件本身,通常由音频和视频两部分组成,常见的视频编码格式有Xvid,AVC/H.264,MPEG1,MPEG2 等,常见的音频编码有MP3、AAC等。
视频码率:是指视频文件在单位时间内使用的数据流量,也叫码流率。码率越大,说明单位时间内取样率越大,数据流精度就越高,这样表现出来的的效果就是:视频画面更清晰画质更高。
视频帧率:通常说一个视频的25帧,指的就是这个视频帧率,即1秒中会显示25帧;视频帧率影响的是画面流畅感,也就是说视频帧率超高,表现出来的效果就是:画面越显得流畅。你也可以这样理解,假设1秒只显1帧,那么一段视频看起来,就是有很明显的卡顿感,不流畅不连惯。当然视频帧率越高,意味着画面越多,也就相应的,这个视频文件的大小也会随之增加,占用存储空间也就增大了。
视频分辨率:分辨率就是我们常说的600x400分辨率、1920x1080分辨率,分辨率影响视频图像的大小,与视频图像大小成正比:视频分辨率越高,图像越大,对应的视频文件本身大小也会越大。
正文:
在任何的图片视频中都含有透明轨道 : Alpha通道,代表数字图像中像素点的透明信息。白色的Alpha像素用以定义不透明的彩色像素,而黑色的Alpha定以透明像素,黑白之间的灰阶则是彩色图片中的半透明部分。
所以任何基于在图片视频上层添加的效果,就需要有透明轨道的视频,比如合并雪花,灯光,爆破。。。
实验用AVFoundation即使原视频包含透明轨道,在合成视频后透明轨道消失了,需要后续花时间研究。
这里我用的是GPUImage 这个工具,可以讲雪花无缝隙的结合起来。
_movieFile = [[GPUImageMovie alloc] initWithURL:url];
_movieFile.runBenchmark = YES;
_movieFile.playAtActualSpeed = NO;
_movieFile2 = [[GPUImageMovie alloc] initWithURL:url2];
_movieFile2.runBenchmark = YES;
_movieFile2.playAtActualSpeed = NO;
_filter = [[GPUImageScreenBlendFilter alloc] init];
// filter = [[GPUImageUnsharpMaskFilter alloc] init];
[_movieFile addTarget:self.filter];
[_movieFile2 addTarget:self.filter];
// Only rotate the video for display, leave orientation the same for recording
// In addition to displaying to the screen, write out a processed version of the movie to disk
NSString *pathToMovie = [NSHomeDirectory() stringByAppendingPathComponent:@"Documents/last.mov"];
unlink([pathToMovie UTF8String]); // If a file already exists, AVAssetWriter won't let you record new frames, so delete the old movie
NSLog(@"file = %@",pathToMovie);
NSURL *movieURL = [NSURL fileURLWithPath:pathToMovie];
self.movieWriter = [[GPUImageMovieWriter alloc] initWithMovieURL:movieURL size:CGSizeMake(640.0, 360.0)];
[self.filter addTarget:self.movieWriter];
// Configure this for video from the movie file, where we want to preserve all video frames and audio samples
self.movieWriter.shouldPassthroughAudio = YES;
//movieFile.audioEncodingTarget = self.movieWriter;
[_movieFile enableSynchronizedEncodingUsingMovieWriter:self.movieWriter];
[self.movieWriter startRecording];
[_movieFile startProcessing];
[_movieFile2 startProcessing];
__block mlkiMovie * sself = self;
[self.movieWriter setCompletionBlock:^{
[sself.filter removeTarget:sself.movieWriter];
[sself.movieFile endProcessing];
[sself.movieFile2 endProcessing];
[sself.movieWriter finishRecording];
NSLog(@"ok");
}];
网友评论