ARKit 初探

作者: _小迷糊_997 | 来源:发表于2018-06-20 22:42 被阅读51次

    序言

    ARKit主要由三部分组成:

    「WWDC2018」-ARKit2 革新 What’s New in ARKit 2

    跟踪(Tracking)

    跟踪是ARKit的核心组件之一,其提供了设备在物理世界中的位置与方向信息,并对物体进行跟踪,如人脸。

    2.场景理解(Scene Understanding)

    场景理解通过学习更多关于环境的属性,以对水平平面进行检测,如地面或桌面;iOS 11.3开始还支持检测垂直平面。这些在场景中平面可用于放置虚拟物体。此外,场景理解还会了解当前环境的光照情况,以提供光照信息用于在虚拟场景中反映真实环境,避免过亮或过暗。

    3.渲染(Rendering)

    通过ARKit可以很容易地集成你所选的渲染引擎。ARKit可通过SceneKit和SpriteKit渲染。Xcode中还提供了Metal模板,方便快速地开始你的增强现实体验(augmented reality experience)项目。此外,Unity和Unreal也已经集成ARKit完整的功能集到他们主流的游戏引擎中,因此你可以通过这些引擎开始使用ARKit。

    ARKit 2 新特性

    主要新特性如下:

    1. 保存与加载地图(Saving and Loading Maps):用于支持持久化与多用户体验的强大新特性。
    2. 环境纹理(Environment Texturing):用于更逼真地渲染你的增强现实场景(augmented reality scene)。
    3. 图像跟踪(Image Tracking):对真实场景中的2D图像进行跟踪。
    4. 物体检测(Object Detection):对真实场景中的3D物体进行跟踪。
    5. 人脸跟踪的提升(Face Tracking Enhancements)

    话不多说先上干货

    1.AR技术简介

    ARKit是2017年6月6日,苹果发布iOS11系统所新增框架,它能够帮助我们以最简单快捷的方式实现AR技术功能。增强现实技术(Augmented Reality,简称 AR),是一种实时地计算摄影机影像的位置及角度并加上相应图像、视频、3D模型的技术,这种技术的目标是在屏幕上把虚拟世界套在现实世界并进行互动。

    ARKit框架提供了两种AR技术,一种是基于3D场景(SceneKit)实现的增强现实,一种是基于2D场景(SpriktKit)实现的增强现实

    误区解读

    ARKit虽然是iOS11新出的框架,但并不是所有的iOS11系统都可以使用,而是必须要是处理器A9及以上才能够使用,苹果从iPhone6s开始使用A9处理器,也就是iPhone6及以前的机型无法使用ARKit

    开发的环境

    1.Xcode版本:Xcode9及以上

    2.iOS系统:iOS11及以上

    3.iOS设备:处理器A9及以上(6S机型及以上)

    4.MacOS系统:10.12.4及以上(安装Xcode9对Mac系统版本有要求)

    下来进入小项目实战

    ARKit物体跟随相机移动流程介绍

    1.搭建环境
    2.搭建ARKit工作环境
    3.开启AR扫描
    4.点击屏幕添加一个3D虚拟物体

    搭建环境

    1.ARSCNView是UIView的子类的子类,所以从理论上来说,我们应用框架UIKit是可以加载AR场景的

    1

    2.给界面添加一个按钮开启AR之旅,创建一个ARSCNViewController:继承于UIViewController,点击按钮跳转到自定义ARSCNViewController

    2

    搭建ARKit工作环境

    一个完整的ARKit工作环境必须要搭建三个对象:ARSCNView(一旦创建,系统会帮我们创建一个场景Scene和相机),ARSession(开启AR和关闭AR都是靠它),ARSessionConfiguration(少了会话追踪配置,AR会话是无法独立工作的)

    #import "ARSCNViewViewController.h"
    
    //3D游戏框架
    #import <SceneKit/SceneKit.h>
    //ARKit框架
    #import <ARKit/ARKit.h>
    
    @interface ARSCNViewViewController ()
    
    //AR视图:展示3D界面
    @property(nonatomic,strong)ARSCNView *arSCNView;
    
    //AR会话,负责管理相机追踪配置及3D相机坐标
    @property(nonatomic,strong)ARSession *arSession;
    
    //会话追踪配置:负责追踪相机的运动
    @property(nonatomic,strong)ARSessionConfiguration *arSessionConfiguration;
    
    //飞机3D模型(本小节加载多个模型)
    @property(nonatomic,strong)SCNNode *planeNode;
    
    @end
    

    pragma mark -搭建ARKit环境

    #pragma mark -搭建ARKit环境
    
    
    //懒加载会话追踪配置
    - (ARSessionConfiguration *)arSessionConfiguration
    {
        if (_arSessionConfiguration != nil) {
            return _arSessionConfiguration;
        }
    
        //1.创建世界追踪会话配置(使用ARWorldTrackingSessionConfiguration效果更加好),需要A9芯片支持
        ARWorldTrackingSessionConfiguration *configuration = [[ARWorldTrackingSessionConfiguration alloc] init];
        //2.设置追踪方向(追踪平面,后面会用到)
        configuration.planeDetection = ARPlaneDetectionHorizontal;
        _arSessionConfiguration = configuration;
        //3.自适应灯光(相机从暗到强光快速过渡效果会平缓一些)
        _arSessionConfiguration.lightEstimationEnabled = YES;
    
        return _arSessionConfiguration;
    
    }
    
    //懒加载拍摄会话
    - (ARSession *)arSession
    {
        if(_arSession != nil)
        {
            return _arSession;
        }
        //1.创建会话
        _arSession = [[ARSession alloc] init];
        //2返回会话
        return _arSession;
    }
    
    //创建AR视图
    - (ARSCNView *)arSCNView
    {
        if (_arSCNView != nil) {
            return _arSCNView;
        }
        //1.创建AR视图
        _arSCNView = [[ARSCNView alloc] initWithFrame:self.view.bounds];
        //2.设置视图会话
        _arSCNView.session = self.arSession;
        //3.自动刷新灯光(3D游戏用到,此处可忽略)
        _arSCNView.automaticallyUpdatesLighting = YES;
    
        return _arSCNView;
    }
    
    

    开启AR扫描

    我们只需要先将AR视图添加到当前UIView中,然后开启AR会话即可开始我们的AR之旅

    这里需要特别注意的是,最好将开启ARSession的代码放入viewDidAppear而不是viewDidLoad中,这样可以避免线程延迟的问题。

    @implementation ARSCNViewViewController
    
    - (void)viewDidLoad {
        [super viewDidLoad];
    
    
        // Do any additional setup after loading the view.
    }
    
    - (void)viewDidAppear:(BOOL)animated
    {
        [super viewDidAppear:animated];
    
        //1.将AR视图添加到当前视图
        [self.view addSubview:self.arSCNView];
        //2.开启AR会话(此时相机开始工作)
        [self.arSession runWithConfiguration:self.arSessionConfiguration];
    
    }
    

    点击屏幕添加一个3D虚拟物体(飞机)

    默认情况下,节点SCNNode的x/y/z位置是(0,0,0),也就是摄像头所在的位置,每一个ARSession在启动时,摄像头的位置就是3D世界的原点,而且这个原点不再随着摄像头的移动而改变,是第一次就永久固定的

    点击屏幕添加飞机

    (void)touchesBegan:(NSSet<UITouch *> )touches withEvent:(UIEvent )event
    {
    //1.使用场景加载scn文件(scn格式文件是一个基于3D建模的文件,使用3DMax软件可以创建,这里系统有一个默认的3D飞机)--------在右侧我添加了许多3D模型,只需要替换文件名即可
    SCNScene scene = [SCNScene sceneNamed:@"Models.scnassets/ship.scn"];
    //2.获取飞机节点(一个场景会有多个节点,此处我们只写,飞机节点则默认是场景子节点的第一个)
    //所有的场景有且只有一个根节点,其他所有节点都是根节点的子节点
    SCNNode shipNode = scene.rootNode.childNodes[0];
    
    //3.将飞机节点添加到当前屏幕中
    [self.arSCNView.scene.rootNode addChildNode:shipNode];
    }
    

    接下来下面就快拿起你的手机测试吧

    相关文章

      网友评论

        本文标题:ARKit 初探

        本文链接:https://www.haomeiwen.com/subject/mzckeftx.html