基础概念就不讲了,讲讲SceneKit
和RealityKit
构建AR场景的差异。
一.支持的系统和手机型号
1.SceneKit
支持iOS11.0以上系统,iphone 6s以上手机(即iphone8,1以上)。
2.RealityKit
支持iOS13.0以上系统,iphone xs以上手机(即iphone11,2以上)。
二.追踪模式
1.平面追踪
没有区别,iOS11.3以上支持垂直平面检测(如墙面),iOS13支持人体遮挡,AR场景不再浮在人物表面,而是根据空间位置有人体遮挡效果。让AR体验更加真实。
let config = ARWorldTrackingConfiguration()
if #available(iOS 13.0,*){
if ARWorldTrackingConfiguration.supportsFrameSemantics(.personSegmentationWithDepth){
config.frameSemantics = .personSegmentationWithDepth
}
}
2.人体追踪
RealityKit
支持人体追踪,具体代码官方已给出。可以获得人体各个节点的三维坐标,但是比较耗性能,可以在session
的didUpdate
代理方法里降低检测频率。
三.添加3D模型
1.SceneKit
除了可以创建比较规则的3D模型,如SCNBox
,SCNTube
等,还支持加载dae格式和obj格式的3D模型。
let scene = SCNScene(name:"~.scnassets/model.dae")
let node = SCNNode()
for child in scene.rootNode.childNodes{
node.addChildNode(child)
}
2.RealityKit
可以创建比较规则的3D模型和3D文字(ModelEntity
),也可以支持加载usdz格式的3d模型(导出usdz格式的方法)。
var cancellable : AnyCancellable ?= nil
cancellable = Entity.loadModelAsync(name:"model.usdz").sink(receiveCompletion:{ completion in
if case let .failure(error) = comletion{
print("加载失败:\(error.locaizedDescription)")
}
cancellable?.cancel()
},receiveValue:{(character:Entity) in
if let entity = character as? ModelEntity{
entity.scale = [0.001,0.001,0.001] //调整模型比例
cancellabe?.cancel()
}else{
//没有找到ModelEntity类型的
}
})
四.模型动画
1.系统动画
SceneKit
支持关键帧动画,即CAKeyframeAnimation
,常见的有移动,旋转,放大等。还支持SCNAction,SCNTransaction动画。
let node = SCNNode()
node.addAnimation(keyFrameAnimation(),forKey:nil)
//位置移动(从初始位置往0,0,0处移动)
let position = node.position
let moveAnimation = CAKeyframeAnimation.init(keyPath:"transform.translation")
moveAnimation.value = [NSValue.init(scnVector3:position),NSValue.init(scnVector3:SCNVector3Make(0,0,0))]
//scale动画(从0到1)
let scaleAnimation = CAKeyframeAnimation.init(keyPath:"scale")
scaleAnimation.value = [NSValue.init(scnVector3:SCNVector3Make(0,0,0)),NSValue.init(scnVector3:SCNVector3Make(1,1,1))]
//rotate动画(绕y轴旋转)
let rotateAnimation = CAKeyframeAnimation.init(keyPath:"rotation")
scaleAnimation.value = [NSValue.init(scnVector3:SCNVector4Make(0,0,0,0)),NSValue.init(scnVector3:SCNVector4Make(0,1,0,Float(-2*Double.pi)))]
RealityKit
支持的系统动画就比较少了。
let entity = ModelEntity(
//省略
)
var transform = entity.transform
//scale动画
transform.scale = SIMD3<Float>(repeating:1.0)
entity.move(to:transform,relationTo:entity.parent,duration:1,timingFunction.easeOut)
//rotate动画(绕y轴旋转)
transform.rotation = simd_quatf(angle:-pi,axis:[0,1,0])
entity.move(to:transform,relationTo:entity.parent,duration:1,timingFunction.easeOut)
2.模型自带动画
SceneKit
加载和播放dae模型动画
//加载动画
let sceneURL = Bundle.main.url(forResource: sceneName, withExtension: "dae")
let sceneSource = SCNSceneSource(url: sceneURL!, options: nil)
let ids = sceneSource?.identifiersOfEntries(withClass:CAAnimation.self)
if let animationObject = sceneSource?.entryWithIdentifier((ids?.first)!, withClass: CAAnimation.self)
{
animationObject.repeatCount = 1
animationObject.fadeInDuration = CGFloat(1)
animationObject.fadeOutDuration = CGFloat(0.5)
//保存到字典
animations[withKey] = animationObject
}
//播放、移除动画
sceneView.scene.rootNode.addAnimation(animations[key]!, forKey: key)
sceneView.scene.rootNode.removeAnimation(forKey: key, blendOutDuration: CGFloat(0.5))
RealityKit
加载和播放usdz模型动画(这个还未验证,待填坑,可以参考开发文档:Animation Playback)
五.采集摄像头数据
1.SceneKit
和RealityKit
都可以在session
的代理方法里拿到CVPixelBuffer
数据,然后进行Metal,OpenGL ES图像处理和音视频编码。
func session(_ session: ARSession, didUpdate frame: ARFrame) {
let pixelBuffer = frame.capturedImage
}
2.但此处拿到CVPixelBuffer
数据是不包含AR效果的。有个方案是:开个定时器每0.1s使用snapshot
方法获取AR view的截屏,然后和摄像头取得的数据合成。
3.可以参考GitHub上的ARVideoKit,支持ar截图,gifs,视频。但目前不支持RealityKit
,希望后续能补上。
六.其他问题
1.Archive时出现了no such module RealityKit
报错。
版本兼容性问题。低版本中不包含RealityKit
这个库,需要加上编译开关。
# if canImport(RealityKit)
import RealityKit
//相关代码
#endif
2.RealityKit
中的Entity
没有隐藏的方法,可以设置materials
的颜色为透明色。
self.entity.model.materials[0] = SimpleMaterial(color:roughness:,isMetallic:)
3.SceneKit
的render
代理方法里内存经常暴涨,有优化的空间(此坑待填)。
七.总结
RealityKit
的人体追踪还是很惊艳的,能够较为准确的识别人体动作,但是功耗高,摄像头发热非常明显。另外可使用的api较SceneKit
少,有待完善。AR
是非常值得期待的技术,就目前表现而言,娱乐性较强。而将娱乐性转化为实用性,还有很长的一段路要走。
网友评论