惊呆了,google竟然发布了新的ARCore的depth API的SDK,这个据说是
没有 没有 没有
采用硬件的深度或 3D ToF传感器来完成,带有深度信息可以遮挡的效果
在6月29日看了官方公众号的一个文章中,看到了一个Flag:
ARCore 是 Google 为开发者构建的增强现实平台,如何让虚拟物体和真实世界完美融合,这一直是 Google ARCore 技术所探讨的问题。众所周知,当虚拟物体附近有现实物体时,有可能会出现互相交融、重叠等效果,大大地影响了用户体验。这一直是 AR 技术的难点,也是 Google 不懈努力的方向。今天 ARCore 给出了这一难题的答案。
ARCore开发者将凭借 Google 动态深度算法和一颗 RGB 摄像头就可创建出深度图,然后加上ARCore原本的性能。呈现用户以有深度信息的效果。
看他们的效果:
看到他们的ARCore已经更新了1.18
数据在GitHub上面,我们可以通过这个码云下载学习:
https://gitee.com/shenty88/arcore-unity-sdk.git
下载了sdk尝试安装体验了下。
对了,这个depth API对手机是有限制的,支持arcore的手机基础上有一波无效了
我使用的是荣耀10,有效果,可真是的烫啊,好烫。来看下自己手机的效果,这个是2018年时候的手机,到今天是否可以坚挺支持ARCore:
效果分析:
1,首先手机运行1分钟左右,已经变的超级无敌烫了,感觉可以回家煎蛋了
2,运行效果中,是有遮挡效果的,有像是做了mask遮罩效果,有时候像是模型自己隐身的效果
3,运行有depth API的效果的时候,手机画面有摄像机看到画面的浅浅的印象,是手机性能?是SDK效果?我已经傻傻分不清楚
以上是为个人非专业测试效果,可能是是手机影响,可能是自己操作不合理效果。
整体感觉,通过移动终端的普通摄像头的AR效果,使用相机图像RGB的信息来处理z轴深度的还是不错的。这个是抛离了必须使用深度或 3D ToF传感器的宿命。
也算是一个不不错的创新。But,希望可以更完善些。AR行业需要你。