美文网首页iOS Developer
【iOS开发】制作一个简易的滤镜相机(三)

【iOS开发】制作一个简易的滤镜相机(三)

作者: iManuQiao | 来源:发表于2016-07-25 21:16 被阅读799次

    上一篇中我们成功地将拍摄到的录像保存到了相册。还差另一个功能,对了,拍照。


    7月31日更新

    上次的代码有些问题,漏了一句释放方法,会导致内存泄露。在willOutputSampleBuffer:第三段代码上方某处加入
    CGImageRelease(sourceCGImage);
    即可。详见修改过的代码。


    GPUImage库里面有个still camera的类,然而如果想同时打开拍照和摄像的2个摄像头实例是不可行的,而且,岂不是很浪费系统资源?那么如何用摄像的camera实例来拍摄静态照片呢?

    什么?你说你可以只按0.1秒?

    严肃点,下面我们开始正文了。

    1. 打开那个工程,对,你知道是哪个。

    2. 在ViewController.h中声明该类实现GPUImageVideoCameraDelegate的协议。

    3. 在ViewController.m中viewDidLoad方法中的第一段代码最后声明代理。

       _videoCamera.delegate = self;
      
    4. 在实现delegate方法前,先到.h设置几个成员变量吧。

       BOOL _willCapturePicture;
       CIContext *_ciContext;
       CGRect _sourceRect;
      
    5. willOutputSampleBuffer:这个方法在AVFoundation里面也有提供,很多基于AVFoundation的扩展库都会保留这个方法用于对帧画面的手动处理。它会在捕获每一帧画面的时候被调用,此时可以对画面进行一些处理。这里我们用_willCapturePicture判断是否要保存当前帧。
      实现代码如下:

       - (void)willOutputSampleBuffer:(CMSampleBufferRef)sampleBuffer {
           // 1. Do nothing if didn't press capture button
           if (!_willCapturePicture) {
               return;
           }
      
           // 2. Transfer sample buffer to image
           CVPixelBufferRef imageBuffer = CMSampleBufferGetImageBuffer(sampleBuffer);
           CVPixelBufferLockBaseAddress(imageBuffer, 0);
           CIImage *sourceImage = [CIImage imageWithCVPixelBuffer:imageBuffer
                                                  options:nil];
           UIGraphicsBeginImageContext(sourceImage.extent.size);
           // Source image的大小获取一次就可以了,为了性能考虑,把这个尺寸存到类成员里面
           static dispatch_once_t onceToken;
           dispatch_once(&onceToken, ^{
               _sourceRect = sourceImage.extent;
           });
      
           CGContextRef context = UIGraphicsGetCurrentContext();
           CGImageRef sourceCGImage = [_ciContext createCGImage:sourceImage fromRect:_sourceRect];
      
           // 由于摄像头的坐标系和UI和Core Graphics都不一样,需要把坐标系转换一下
           CGAffineTransform transform = CGAffineTransformIdentity;
           transform = CGAffineTransformMakeTranslation(0, _sourceRect.size.height);
           transform = CGAffineTransformScale(transform, 1, -1);
           CGContextConcatCTM(context, transform);
      
           CGContextDrawImage(context, _sourceRect, sourceCGImage);
           CGImageRelease(sourceCGImage);// 千万不能忘了释放内存
           UIImage *resultImage = UIGraphicsGetImageFromCurrentImageContext();
           UIGraphicsEndImageContext();
      
           // 3. Take a photo
           if (_willCapturePicture) {
               UIGraphicsBeginImageContext(CGSizeMake(resultImage.size.height, resultImage.size.width));
               CGContextRef context = UIGraphicsGetCurrentContext();
               CGContextRotateCTM(context, M_PI_2);
               CGContextTranslateCTM(context, 0, -resultImage.size.height);
       
               [resultImage drawAtPoint:CGPointZero];
       
               UIImage *resultImage2 = UIGraphicsGetImageFromCurrentImageContext();
               UIGraphicsEndImageContext();
       
               // 加滤镜。这里获得的图片是原始摄像头捕获的画面,需要手动加一下滤镜效果。
               GPUImagePicture *stillImageSource = [[GPUImagePicture alloc] initWithImage:resultImage2];
               [stillImageSource addTarget:_filter];
               [_filter useNextFrameForImageCapture];
               [stillImageSource processImage];
       
               UIImage *currentFilteredVideoFrame = [_filter imageFromCurrentFramebuffer];
       
               NSData *processedJPEG = UIImageJPEGRepresentation(currentFilteredVideoFrame, 1);
       
               ALAssetsLibrary *library = [[ALAssetsLibrary alloc] init];
               [library writeImageDataToSavedPhotosAlbum:processedJPEG metadata:nil completionBlock:^(NSURL *assetURL, NSError *error2)
               {
                   if (error2) {
                   NSLog(@"ERROR: the image failed to be written");
                   }
                   else {
                       NSLog(@"PHOTO SAVED - assetURL: %@", assetURL);
                   }
               }];
       
               _willCapturePicture = NO;
           }
      
           CVPixelBufferUnlockBaseAddress(imageBuffer, 0);
       }
      

    这段代码很长,大致就是把CMSampleBufferRef进行一系列类型转换和坐标系变换,转成我们熟悉的UIImage然后转成NSData然后保存到相册。

    第二段代码里面把坐标系转换以后获取了当前的CGContext,并在上面画了一层CGImage。这段代码写那么复杂是为之后另一个功能做准备的。

    拍摄操作主要还是在第三段代码,把当前获取的sample buffer转成的UIImage保存到相册里面。

    1. 好了,主要功能写完,剩下只要添加调用的代码就行了。到viewDidLoad中找到第五段代码,在末尾加上以下代码:

       UITapGestureRecognizer *tapGesture = [[UITapGestureRecognizer alloc] initWithTarget:self action:@selector(handleGesture:)];
       [_captureButton addGestureRecognizer:tapGesture];
      
       // 6. Other setup
       EAGLContext *eaglContext = [[EAGLContext alloc]initWithAPI:kEAGLRenderingAPIOpenGLES2];
       _ciContext = [CIContext contextWithEAGLContext:eaglContext];
      

    这里用EAGLContext来初始化CIContext因为EAGLContext创建以后是GPU来进行操作,比CPU快很多。

    1. 到handleGesture:方法最后加上另一个手势的处理:

       else if ([sender isKindOfClass:[UITapGestureRecognizer class]]) {
           UITapGestureRecognizer *tapGesture = (UITapGestureRecognizer *)sender;
           switch (tapGesture.state) {
               case UIGestureRecognizerStateEnded:
               {
                   _willCapturePicture = YES;
               }
                   break;
               
               default:
                   break;
           }
       }
      

    到这里我们又实现了照片拍摄。当然照片不会像专职照片相机这么清晰,无奈也是一种妥协了。因为如果摄像头尺寸调到1920x1080,实时画面处理对于iPhone6来说性能也是不够的。所以这个相机demo不是为了拍美景的,主要用于社交、美颜、文艺青年的使用场景。小尺寸便于分享传输、节约网络流量。

    这次的代码非常复杂,但很多都是搬砖操作,仔细阅读以后不会觉得像想象中这么深奥。我当初倒是为了坐标系变换调试了很久。有任何代码上面的问题请不要犹豫,在下方留言。

    相关文章

      网友评论

        本文标题:【iOS开发】制作一个简易的滤镜相机(三)

        本文链接:https://www.haomeiwen.com/subject/dgggjttx.html