美文网首页
iOS 图像处理(二):相机取色

iOS 图像处理(二):相机取色

作者: 牵线小丑 | 来源:发表于2017-12-04 11:28 被阅读111次

    本文是笔者用来记录学习 iOS 图像处理相关的文章,内容可能有部分不对,可以通过评论或私信交流。本文所有代码都是 Swift 3.0


    前言

    在上一篇文章 iOS 图像处理(一):获取某一点位置的像素 中有提到相机取色这么一个功能,其实这个功能在上篇文章的基础上即可实现,现在来详细讲讲;

    实现

    实现效果

    因为相机功能需要用到真机,要获取效果图比较麻烦,就不上了。

    笔者思路
    方式一

    通过相机获取得到图像数据,根据取色位置得到像素数据;

    问题:因为这样获取得到的像素数据是原数据,所以当图像进行了一些变换操作(比如缩放),这时同样要对位置进行相应的变换,实现起来相对麻烦,所以不使用这种方式;

    方式二

    通过相机获取得到图像数据,将图像数据渲染到 CALayer 上,通过 CALayer 来获取得到特定位置上的像素数据,这跟上一篇文章的方式二是完全一样的;

    初始化图像预览层:

    let previewLayer = CALayer()
    
    internal func setupUI() {
        previewLayer.bounds = view.bounds
        previewLayer.position = view.center
        previewLayer.contentsGravity = kCAGravityResizeAspectFill
        previewLayer.setAffineTransform(CGAffineTransform(rotationAngle: CGFloat(M_PI / 2.0)))
        view.layer.insertSublayer(previewLayer, at: 0)
    }
    

    初始化相机:

    let session = AVCaptureSession()
    
    // 相机数据帧接收队列
    let queue = DispatchQueue(label: "com.camera.video.queue")
    
    // 取色位置
    var center: CGPoint = .zero
    
    internal func setupParameter() {
        
        session.beginConfiguration()
        session.sessionPreset = AVCaptureSessionPreset1280x720
        
        guard let device = AVCaptureDevice.defaultDevice(withMediaType: AVMediaTypeVideo),
            let deviceInput = try? AVCaptureDeviceInput(device: device) else {
            return
        }
        
        if session.canAddInput(deviceInput) {
            session.addInput(deviceInput)
        }
        
        let videoOutput = AVCaptureVideoDataOutput()
        videoOutput.videoSettings = [kCVPixelBufferPixelFormatTypeKey as AnyHashable: NSNumber(value: kCMPixelFormat_32BGRA)]
        videoOutput.alwaysDiscardsLateVideoFrames = true
        videoOutput.setSampleBufferDelegate(self, queue: queue)
        
        if session.canAddOutput(videoOutput) {
            session.addOutput(videoOutput)
        }
        
        session.commitConfiguration()
    }
    

    设置取色位置:

    public override func touchesBegan(_ touches: Set<UITouch>, with event: UIEvent?) {
        guard let touch = touches.first else {
            return
        }
        // 获取用户点击位置在图像上的相对位置
        let point = touch.location(in: self.view)
        center = point
        anchorButton.frame = CGRect(x: point.x - 20, y: point.y - 20 / 2, width: 40, height: 40)
    }
    

    获取特定位置颜色:

    public func captureOutput(_ captureOutput: AVCaptureOutput!, didOutputSampleBuffer sampleBuffer: CMSampleBuffer!, from connection: AVCaptureConnection!) {
        
        guard let imageBuffer = CMSampleBufferGetImageBuffer(sampleBuffer) else {
            return
        }
        
        CVPixelBufferLockBaseAddress(imageBuffer, CVPixelBufferLockFlags(rawValue: CVOptionFlags(0)))
        
        guard let baseAddr = CVPixelBufferGetBaseAddressOfPlane(imageBuffer, 0) else {
            return
        }
        let width = CVPixelBufferGetWidthOfPlane(imageBuffer, 0)
        let height = CVPixelBufferGetHeightOfPlane(imageBuffer, 0)
        let bytesPerRow = CVPixelBufferGetBytesPerRowOfPlane(imageBuffer, 0)
        let colorSpace = CGColorSpaceCreateDeviceRGB()
        let bimapInfo: CGBitmapInfo = [
            .byteOrder32Little,
            CGBitmapInfo(rawValue: CGImageAlphaInfo.premultipliedFirst.rawValue)]
        
        guard let content = CGContext(data: baseAddr, width: width, height: height, bitsPerComponent: 8, bytesPerRow: bytesPerRow, space: colorSpace, bitmapInfo: bimapInfo.rawValue) else {
            return
        }
        
        // 如果是从像素数据中获取特定位置像素,则是按以下被注释的这部分代码进行获取
        // 其中像素排序为:BGRA,index 需要进行要应的变换
    //        let data = baseAddr.assumingMemoryBound(to: UInt8.self)
    //        let index = width * height * 2
    //        let b = CGFloat(data.advanced(by: index + 0).pointee) / 255
    //        let g = CGFloat(data.advanced(by: index + 1).pointee) / 255
    //        let r = CGFloat(data.advanced(by: index + 2).pointee) / 255
    //        let a = CGFloat(data.advanced(by: index + 3).pointee) / 255
    //        let color = UIColor(red: r, green: g, blue: b, alpha: a)
    
        guard let cgImage = content.makeImage() else {
            return
        }
        
        DispatchQueue.main.async {
            self.previewLayer.contents = cgImage
            // self.previewLayer.pickColor 为 CALayer 的一个扩展
            self.colorView.backgroundColor = self.previewLayer.pickColor(at: self.center)
        }
    }
    
    public extension CALayer {
        
        /// 获取特定位置的颜色
        ///
        /// - parameter at: 位置
        ///
        /// - returns: 颜色
        public func pickColor(at position: CGPoint) -> UIColor? {
            
            // 用来存放目标像素值
            var pixel = [UInt8](repeatElement(0, count: 4))
            // 颜色空间为 RGB,这决定了输出颜色的编码是 RGB 还是其他(比如 YUV)
            let colorSpace = CGColorSpaceCreateDeviceRGB()
            // 设置位图颜色分布为 RGBA
            let bitmapInfo = CGImageAlphaInfo.premultipliedLast.rawValue
            guard let context = CGContext(data: &pixel, width: 1, height: 1, bitsPerComponent: 8, bytesPerRow: 4, space: colorSpace, bitmapInfo: bitmapInfo) else {
                return nil
            }
            // 设置 context 原点偏移为目标位置所有坐标
            context.translateBy(x: -position.x, y: -position.y)
            // 将图像渲染到 context 中
            render(in: context)
            
            return UIColor(red: CGFloat(pixel[0]) / 255.0,
                           green: CGFloat(pixel[1]) / 255.0,
                           blue: CGFloat(pixel[2]) / 255.0,
                           alpha: CGFloat(pixel[3]) / 255.0)
        }
    }
    

    本文到此结束!

    相关文章

      网友评论

          本文标题:iOS 图像处理(二):相机取色

          本文链接:https://www.haomeiwen.com/subject/dgitixtx.html