美文网首页
iOS ARKit,SceneKit,RealityKit总结

iOS ARKit,SceneKit,RealityKit总结

作者: 陆离o | 来源:发表于2020-01-21 17:33 被阅读0次

    基础概念就不讲了,讲讲SceneKitRealityKit构建AR场景的差异。

    一.支持的系统和手机型号

    1.SceneKit支持iOS11.0以上系统,iphone 6s以上手机(即iphone8,1以上)。
    2.RealityKit支持iOS13.0以上系统,iphone xs以上手机(即iphone11,2以上)。

    二.追踪模式

    1.平面追踪

    没有区别,iOS11.3以上支持垂直平面检测(如墙面),iOS13支持人体遮挡,AR场景不再浮在人物表面,而是根据空间位置有人体遮挡效果。让AR体验更加真实。

    let config = ARWorldTrackingConfiguration()
    if #available(iOS 13.0,*){
       if ARWorldTrackingConfiguration.supportsFrameSemantics(.personSegmentationWithDepth){
           config.frameSemantics = .personSegmentationWithDepth
       }
    }
    
    2.人体追踪

    RealityKit支持人体追踪,具体代码官方已给出。可以获得人体各个节点的三维坐标,但是比较耗性能,可以在sessiondidUpdate代理方法里降低检测频率。

    三.添加3D模型

    1.SceneKit除了可以创建比较规则的3D模型,如SCNBoxSCNTube等,还支持加载dae格式和obj格式的3D模型。

    let scene = SCNScene(name:"~.scnassets/model.dae") 
    let node = SCNNode()
    for child in scene.rootNode.childNodes{
     node.addChildNode(child)
    }
    

    2.RealityKit可以创建比较规则的3D模型和3D文字(ModelEntity),也可以支持加载usdz格式的3d模型(导出usdz格式的方法)。

    var cancellable : AnyCancellable ?= nil
    cancellable = Entity.loadModelAsync(name:"model.usdz").sink(receiveCompletion:{  completion in 
      if case let .failure(error) = comletion{
        print("加载失败:\(error.locaizedDescription)")
      }
      cancellable?.cancel()
    },receiveValue:{(character:Entity) in
      if let entity = character as? ModelEntity{
        entity.scale = [0.001,0.001,0.001] //调整模型比例
        cancellabe?.cancel()
      }else{
      //没有找到ModelEntity类型的
      }
    })
    

    四.模型动画

    1.系统动画

    SceneKit支持关键帧动画,即CAKeyframeAnimation,常见的有移动,旋转,放大等。还支持SCNAction,SCNTransaction动画。

    let node = SCNNode()
    node.addAnimation(keyFrameAnimation(),forKey:nil)
    
    //位置移动(从初始位置往0,0,0处移动)
    let position = node.position
    let moveAnimation = CAKeyframeAnimation.init(keyPath:"transform.translation")
    moveAnimation.value = [NSValue.init(scnVector3:position),NSValue.init(scnVector3:SCNVector3Make(0,0,0))]
    
    //scale动画(从0到1)
    let scaleAnimation = CAKeyframeAnimation.init(keyPath:"scale")
    scaleAnimation.value = [NSValue.init(scnVector3:SCNVector3Make(0,0,0)),NSValue.init(scnVector3:SCNVector3Make(1,1,1))]
    
    //rotate动画(绕y轴旋转)
    let rotateAnimation = CAKeyframeAnimation.init(keyPath:"rotation")
    scaleAnimation.value = [NSValue.init(scnVector3:SCNVector4Make(0,0,0,0)),NSValue.init(scnVector3:SCNVector4Make(0,1,0,Float(-2*Double.pi)))]
    
    

    RealityKit支持的系统动画就比较少了。

    let entity = ModelEntity(
      //省略
    )
    var transform = entity.transform
    
    //scale动画
    transform.scale = SIMD3<Float>(repeating:1.0)
    entity.move(to:transform,relationTo:entity.parent,duration:1,timingFunction.easeOut)
    
    //rotate动画(绕y轴旋转)
    transform.rotation = simd_quatf(angle:-pi,axis:[0,1,0])
    entity.move(to:transform,relationTo:entity.parent,duration:1,timingFunction.easeOut)
    
    
    2.模型自带动画

    SceneKit加载和播放dae模型动画

    //加载动画
    let sceneURL = Bundle.main.url(forResource: sceneName, withExtension: "dae")
    let sceneSource = SCNSceneSource(url: sceneURL!, options: nil)
    let ids = sceneSource?.identifiersOfEntries(withClass:CAAnimation.self)
    if let animationObject = sceneSource?.entryWithIdentifier((ids?.first)!, withClass: CAAnimation.self)
    {
      animationObject.repeatCount = 1
      animationObject.fadeInDuration = CGFloat(1)
      animationObject.fadeOutDuration = CGFloat(0.5)
      //保存到字典
      animations[withKey] = animationObject
    }
    
    //播放、移除动画
    sceneView.scene.rootNode.addAnimation(animations[key]!, forKey: key)
    sceneView.scene.rootNode.removeAnimation(forKey: key, blendOutDuration: CGFloat(0.5))
    
    RealityKit加载和播放usdz模型动画(这个还未验证,待填坑,可以参考开发文档:Animation Playback

    五.采集摄像头数据

    1.SceneKitRealityKit都可以在session的代理方法里拿到CVPixelBuffer数据,然后进行Metal,OpenGL ES图像处理和音视频编码。

        func session(_ session: ARSession, didUpdate frame: ARFrame) {
            let pixelBuffer = frame.capturedImage
        }
    

    2.但此处拿到CVPixelBuffer数据是不包含AR效果的。有个方案是:开个定时器每0.1s使用snapshot方法获取AR view的截屏,然后和摄像头取得的数据合成。

    3.可以参考GitHub上的ARVideoKit,支持ar截图,gifs,视频。但目前不支持RealityKit,希望后续能补上。

    六.其他问题

    1.Archive时出现了no such module RealityKit报错。
    版本兼容性问题。低版本中不包含RealityKit这个库,需要加上编译开关。

    # if canImport(RealityKit)
    import RealityKit
      //相关代码
    #endif
    

    2.RealityKit中的Entity没有隐藏的方法,可以设置materials的颜色为透明色。

    self.entity.model.materials[0] = SimpleMaterial(color:roughness:,isMetallic:)
    

    3.SceneKitrender代理方法里内存经常暴涨,有优化的空间(此坑待填)。

    七.总结

    RealityKit的人体追踪还是很惊艳的,能够较为准确的识别人体动作,但是功耗高,摄像头发热非常明显。另外可使用的api较SceneKit少,有待完善。AR是非常值得期待的技术,就目前表现而言,娱乐性较强。而将娱乐性转化为实用性,还有很长的一段路要走。

    相关文章

      网友评论

          本文标题:iOS ARKit,SceneKit,RealityKit总结

          本文链接:https://www.haomeiwen.com/subject/qesezctx.html