美文网首页
Core Image框架详细解析(二十一) —— 基于Core

Core Image框架详细解析(二十一) —— 基于Core

作者: 刀客传奇 | 来源:发表于2022-05-29 16:34 被阅读0次

    版本记录

    版本号 时间
    V1.0 2022.05.29 星期日

    前言

    Core Image是IOS5中新加入的一个框架,里面提供了强大高效的图像处理功能,用来对基于像素的图像进行操作与分析。还提供了很多强大的滤镜,可以实现你想要的效果,下面我们就一起解析一下这个框架。感兴趣的可以参考上面几篇。
    1. Core Image框架详细解析(一) —— 基本概览
    2. Core Image框架详细解析(二) —— Core Image滤波器参考
    3. Core Image框架详细解析(三) —— 关于Core Image
    4. Core Image框架详细解析(四) —— Processing Images处理图像(一)
    5. Core Image框架详细解析(五) —— Processing Images处理图像(二)
    6. Core Image框架详细解析(六) —— 图像中的面部识别Detecting Faces in an Image(一)
    7. Core Image框架详细解析(七) —— 自动增强图像 Auto Enhancing Images
    8. Core Image框架详细解析(八) —— 查询系统中的过滤器 Querying the System for Filters
    9. Core Image框架详细解析(九) —— 子类化CIFilter:自定义效果的配方 Subclassing CIFilter: Recipes for Custom Effects(一)
    10. Core Image框架详细解析(十) —— 子类化CIFilter:自定义效果的配方 Subclassing CIFilter: Recipes for Custom Effects(二)
    11. Core Image框架详细解析(十一) —— 获得最佳性能 Getting the Best Performance
    12. Core Image框架详细解析(十二) —— 使用反馈处理图像 Using Feedback to Process Images
    13. Core Image框架详细解析(十三) —— 在写一个自定义滤波器之前你需要知道什么?
    14. Core Image框架详细解析(十四) —— 创建自定义滤波器 Creating Custom Filters(一)
    15. Core Image框架详细解析(十五) —— 创建自定义滤波器 Creating Custom Filters(二)
    16. Core Image框架详细解析(十六) —— 包装和加载图像单元 Packaging and Loading Image Units
    17. Core Image框架详细解析(十七) —— 一个简单说明和示例(一)
    18. Core Image框架详细解析(十八) —— 使用Metal Shading Language创建你自己的Core Image滤波器进行像素级图像处理(一)
    19. Core Image框架详细解析(十九) —— 使用Metal Shading Language创建你自己的Core Image滤波器进行像素级图像处理(二)
    20. Core Image框架详细解析(二十) —— 基于Core Image 和 Swift 学习图像过滤效果(一)

    源码

    1. Swift

    下面一起看下源码

    1. ViewController.swift
    
    import UIKit
    
    
    class ViewController: UIViewController {
      @IBOutlet weak var imageView: UIImageView!
      @IBOutlet weak var slider: UISlider!
    
      let context = CIContext(options: nil)
      let filter = CIFilter(name: "CISepiaTone") ?? CIFilter()
      var orientation = UIImage.Orientation.up
    
      override func viewDidLoad() {
        super.viewDidLoad()
    
        guard let uiImage = UIImage(named: "image") else { return }
        let ciImage = CIImage(image: uiImage)
        filter.setValue(ciImage, forKey: kCIInputImageKey)
    
        applyOldPhotoFilter(intensity: 0.5)
      }
    
      @IBAction func sliderValueChanged(_ slider: UISlider) {
        applyOldPhotoFilter(intensity: slider.value)
      }
    
      @IBAction func loadPhoto() {
        let picker = UIImagePickerController()
        picker.delegate = self
        present(picker, animated: true)
      }
    }
    
    extension ViewController {
      func applySepiaFilter(intensity: Float) {
        filter.setValue(intensity, forKey: kCIInputIntensityKey)
    
        guard let outputImage = filter.outputImage else { return }
    
        guard let cgImage = context.createCGImage(outputImage, from: outputImage.extent) else { return }
        imageView.image = UIImage(cgImage: cgImage, scale: 1, orientation: orientation)
      }
    
      func applyOldPhotoFilter(intensity: Float) {
        filter.setValue(intensity, forKey: kCIInputIntensityKey)
    
        let random = CIFilter(name: "CIRandomGenerator")
    
        let lighten = CIFilter(name: "CIColorControls")
        lighten?.setValue(random?.outputImage, forKey: kCIInputImageKey)
        lighten?.setValue(1 - intensity, forKey: kCIInputBrightnessKey)
        lighten?.setValue(0, forKey: kCIInputSaturationKey)
    
        guard let ciImage = filter.value(forKey: kCIInputImageKey) as? CIImage else { return }
        let croppedImage = lighten?.outputImage?.cropped(to: ciImage.extent)
    
        let composite = CIFilter(name: "CIHardLightBlendMode")
        composite?.setValue(filter.outputImage, forKey: kCIInputImageKey)
        composite?.setValue(croppedImage, forKey: kCIInputBackgroundImageKey)
    
        let vignette = CIFilter(name: "CIVignette")
        vignette?.setValue(composite?.outputImage, forKey: kCIInputImageKey)
        vignette?.setValue(intensity * 2, forKey: kCIInputIntensityKey)
        vignette?.setValue(intensity * 30, forKey: kCIInputRadiusKey)
    
        guard let outputImage = vignette?.outputImage else { return }
        guard let cgImage = context.createCGImage(outputImage, from: outputImage.extent) else { return }
        imageView.image = UIImage(cgImage: cgImage, scale: 1, orientation: orientation)
      }
    }
    
    extension ViewController: UIImagePickerControllerDelegate, UINavigationControllerDelegate {
      func imagePickerController(
        _ picker: UIImagePickerController,
        didFinishPickingMediaWithInfo info: [UIImagePickerController.InfoKey: Any]
      ) {
        guard let selectedImage = info[.originalImage] as? UIImage else { return }
        let ciImage = CIImage(image: selectedImage)
        filter.setValue(ciImage, forKey: kCIInputImageKey)
        orientation = selectedImage.imageOrientation
        applyOldPhotoFilter(intensity: slider.value)
        dismiss(animated: true)
      }
    }
    

    后记

    本篇主要讲述了使用 Core ImageSwift 学习图像过滤效果的基础知识,感兴趣的给个赞或者关注~~~

    相关文章

      网友评论

          本文标题:Core Image框架详细解析(二十一) —— 基于Core

          本文链接:https://www.haomeiwen.com/subject/cawgprtx.html