美文网首页unity3D技术分享
unity运行google谷歌的ARCore depth API

unity运行google谷歌的ARCore depth API

作者: Shenty沈 | 来源:发表于2020-07-10 09:42 被阅读0次

    惊呆了,google竟然发布了新的ARCore的depth API的SDK,这个据说是

    没有  没有  没有

    采用硬件的深度或 3D ToF传感器来完成,带有深度信息可以遮挡的效果

    在6月29日看了官方公众号的一个文章中,看到了一个Flag:

    ARCore 是 Google 为开发者构建的增强现实平台,如何让虚拟物体和真实世界完美融合,这一直是 Google ARCore 技术所探讨的问题。众所周知,当虚拟物体附近有现实物体时,有可能会出现互相交融、重叠等效果,大大地影响了用户体验。这一直是 AR 技术的难点,也是 Google 不懈努力的方向。今天 ARCore 给出了这一难题的答案。

    ARCore开发者将凭借 Google 动态深度算法和一颗 RGB 摄像头就可创建出深度图,然后加上ARCore原本的性能。呈现用户以有深度信息的效果。

    看他们的效果:

    看到他们的ARCore已经更新了1.18

    数据在GitHub上面,我们可以通过这个码云下载学习:

    https://gitee.com/shenty88/arcore-unity-sdk.git

    下载了sdk尝试安装体验了下。

    对了,这个depth API对手机是有限制的,支持arcore的手机基础上有一波无效了

    我使用的是荣耀10,有效果,可真是的烫啊,好烫。来看下自己手机的效果,这个是2018年时候的手机,到今天是否可以坚挺支持ARCore:


    ARcore的depthAPI有些效果

    效果分析:

    1,首先手机运行1分钟左右,已经变的超级无敌烫了,感觉可以回家煎蛋了

    2,运行效果中,是有遮挡效果的,有像是做了mask遮罩效果,有时候像是模型自己隐身的效果

    3,运行有depth API的效果的时候,手机画面有摄像机看到画面的浅浅的印象,是手机性能?是SDK效果?我已经傻傻分不清楚

      以上是为个人非专业测试效果,可能是是手机影响,可能是自己操作不合理效果。

    整体感觉,通过移动终端的普通摄像头的AR效果,使用相机图像RGB的信息来处理z轴深度的还是不错的。这个是抛离了必须使用深度或 3D ToF传感器的宿命。

    也算是一个不不错的创新。But,希望可以更完善些。AR行业需要你。

    相关文章

      网友评论

        本文标题:unity运行google谷歌的ARCore depth API

        本文链接:https://www.haomeiwen.com/subject/cnhgqktx.html