在上一篇ARKit体验篇中我们体验了ARKit,这一篇主要从类出发分析下ARKit的流程。
ARKit浅析
我们知道,iOS的视图显示层级为UIWindow -》UIViewController -》UIView。UIView的作用是将视图显示在UIWindow中,AR呈现的东西也属于视图,所以我们可以大胆假设AR的呈现也是基于UIView的。由此假设,我们看下上一篇的Demo源码
//在界面上创建ARSCNView,用于展示AR
@IBOutlet var sceneView: ARSCNView!
可以看到,AR由ARSCNView呈现出来,查看文档可以看到ARSCNView继承于SCNView。而SCNView则是SceneKit中一个继承于UIView的类。
@available(iOS 11.0, *)
open class ARSCNView : SCNView {
SCNView负责显示一个3D场景,ARSCNView在SCNView的基础上,加入了ARSession使得其可以用摄像头(ARCamera)捕捉到的现实世界图像构成3D场景,也就是AR。
ARSession
查看文档,不难看出ARSession是沟通摄像头(ARCamera)和运动处理的桥梁。ARCamera负责捕捉摄像头画面,ARSession负责搭建3D场景。
运行ARSession需要指定一个ARSessionConfiguration来负责追踪相机在3D世界中的位置以及场景的捕捉(例如平面)。
ARSessionConfiguration是一个父类,为了更好的看到增强现实的效果,苹果为我们提供了它的子类ARWorldTrackingSessionConfiguration来便于使用。
细心的朋友可以看到文档中有个isSupported方法应该就是为什么ARKit要求A9芯片以上的原因了(猜的,不准勿喷),所以,使用ARKit时别忘了做这个判断。
ARWorldTrackingSessionConfiguration计算出相机在3D世界中的位置ARFrame后,将其交给ARSession去管理
我们理清了如何从相机捕捉图像到手机上显示3D场景,而虚拟的物体部分是由节点SCNNode构成的(节点构成了场景SCNScene,无数个场景构成了3D世界)
ARKit流程
- ARSCNView加载SCNScene
- SCNScene启动ARCamera捕捉图像
- ARSCNView将SCNScene的数据交给Session
- Session通过管理ARSessionConfiguration实现场景追踪并且返回一个ARFrame(添加3D物体模型的时候计算出3D物体模型相对于相机的真实的矩阵位置需要使用到)
- 往SCNScene中添加一个3D物体(SCNNode)
总结
本篇主要分析了ARKit的流程,让大家对ARKit的几个主要类以及职责先有一个初步了解。下一篇开始将以实例来一步步探索ARKit。