@[TOC]
ARKit3.5 框架学习 (一)核心类简介(上)
1. ARKit框架简介
ARKit整合iOS设备摄像头和运动功能,在你的应用程序或游戏中产生增强现实体验。
增强现实(AR)描述了将2D或3D元素添加到设备摄像头的实时视图中的用户体验,以使这些元素看起来像是生活在真实世界中。ARKit结合了设备运动跟踪、摄像机场景捕获、高级场景处理和显示功能,简化了构建AR体验的任务。使用这些技术,你可以使用iOS设备的前置或后置摄像头创建多种AR体验。
1.1 ARKit 3.5 新增功能
ARKit 3.5添加了一个新的Scene Geometry API
,该API
使用激光雷达扫描仪创建空间的3D地图,以区分地板,墙壁,天花板,窗户,门和座椅。该扫描仪能够在长达五米的距离内快速测量物体的长度,宽度和深度,从而使用户能够快速创建可用于物体遮挡的数字传真机-使数字物体看起来像部分混入了场景中在真实物体后面。得益于“即时AR”支持,这些数字对象可以自动放置在空间中,而无需用户挥动平板电脑并让其相机感觉到空间。
苹果还表示,它在3.5版中改进了ARKit的动作捕捉和人物遮挡,可以更好地估算人物的深度和动作捕捉的高度。以前,ARKit使用iPhone或iPad的2D相机在长度测量方面做得“足够好”,但是激光雷达扫描仪可以进行更精确的3轴测量,从而自动使以前开发的应用程序受益,而无需更改代码。
总的说来, ARKit 3.5 增加了以下三个方面的功能:
- 几何场景: 通过“几何场景”,您可以使用标识地板、墙壁、天花板、窗户、门和座椅的标签来创建空间的立体图。对现实世界的深入了解为虚拟对象解锁了对象遮挡和现实世界的物理原理,还为您提供了更多信息来增强您的 AR 工作场景。
- 即时AR:iPad Pro 上的 LiDAR 扫描仪可实现难以置信的快速平面检测,从而无需扫描即可在现实世界中即时放置AR对象。iPad Pro 会自动为所有使用 ARKit 构建的应用启用即时AR放置,而无需进行任何代码更改。
- 改进的运动捕捉和人物遮挡: 通过 ARKit 3.5 在 iPad Pro 中应用,“人物遮挡”中的深度预测和“运动捕捉”中的高度估计更加准确了。这两个功能在 iPad Pro 上使用 ARKit 生成的所有应用中得到了改进,同样无需更改任何代码。
如下图是一个AR效果图:
ARKit使用Visual Inertial Odometry(VIO,视觉惯性里程计)来精确跟踪现实世界中的真实场景。相比其它设备平台, ARKit中的VIO可以将传感器数据和CoreMotion的数据融合在一起,从而提供更为精确的信息。 ARKit可以让iOS设备精确感知它如何在房间内移动,而无需外部设备的校准。基于此原理, ARKit可以获取关于iOS设备位置和运动信息的高精度模型,并在场景中使用。
使用 ARKit,iPhone和IPad可以分析来自摄像头视图中的场景,并找到房间的水平平面。 ARKit可以检测到例如桌子和地板之类的平面,还可以检测和跟踪物体。更酷的是, ARKit还可以利用摄像头传感器来估算场景中的光线强度,从而在虚拟物体上提供合适的光照。
在实际的开发中,可以使用点击测试方法(如ARHitTestResult类)来根据摄像头捕捉的图像找到真实世界的表面。如果开发者在配置中启用了planeDetection,ARKit可以检测到摄像头所捕捉图像中的平面,并记录其位置和大小信息。
1.2 ARKit 工作流程简介
如下图,解释的是 ARKit 的工作流程。其中蓝色表示 ARKit 负责的部分,绿色表示 SceneKit 负责的部分:
从上图可以看出,AR工作的大致流程如下:
- 首先,ARKit 利用摄像头拍摄现实场景的画面,然后 SceneKit 用来建立虚拟世界。
- 建立好了以后,ARKit 负责将现实世界和虚拟世界的信息融合,并渲染出一个
AR
世界。 - 在渲染的同时,ARKit 要负责以下三件事:
- 维持世界追踪 指的是当你移动摄像头,要去获取新的现实世界的信息。
- 进行场景解析 指的是解析现实世界中有无特征点、平面等关键信息。
- 处理与虚拟世界的互动 指的是当用户点击或拖动屏幕时,处理有没有点击到虚拟物体或者要不要进行添加/删除物体的操作。
- 总的来说,ARKit 主要做的事是:捕捉现实世界信息、将现实和虚拟世界混合渲染、并且时刻处理新的信息或者进行互动。
2. ARKit框架类结构
iOS 平台的 AR 应用通常由 ARKit 和渲染引擎两部分构成:
ARKit 的 ARSession 负责管理每一帧的信息。ARSession 做了两件事:拍摄图像并获取传感器数据;对数据进行分析处理后逐帧输出。如下图:
要做AR相关开发肯定首先要熟悉两个框架:
此外还可以使用Unity方案实现跨平台开发。
ARKit是基于3D场景(SceneKit)实现的增强现实,这是主流方式。
ARKit还基于2D场景(SceneKit)实现的增强现实。所以要学习ARKit框架外还有必要学习这两个框架:SceneKit, SpriteKit。后续博客会详细讲解这两个框架,尽请期待....
2.1 SpriteKit框架简介
-
SpriteKit: 在应用程序中添加具有流畅动画的高性能2D内容,或使用一组基于2D游戏的高级工具创建游戏。
SpriteKit是一个通用框架,用于在二维中绘制形状、粒子、文本、图像和视频。它利用Metal来实现高性能的渲染,同时提供一个简单的编程接口,使得创建游戏和其他图形密集型应用程序变得容易。使用一组丰富的动画和物理行为,您可以快速地为您的视觉元素添加生命,并在屏幕之间优雅地转换。
SpriteKit支持iOS、macOS、tvOS和watchOS,并与GameplayKit和SceneKit等框架集成良好。 -
SpriteKit框架结构如下:
2.2 SceneKit框架简介
-
SceneKit框架:用来创建3D游戏,并使用高级场景描述将3D内容添加到应用程序中。轻松添加动画,物理模拟,粒子效果,和现实的物理渲染。
SceneKit结合了一个高性能的渲染引擎和一个用于导入、操作和渲染3D资产的描述性API。与底层api(如Metal和OpenGL)不同,后者需要您精确地实现显示场景的呈现算法的细节,而SceneKit只需要描述场景的内容以及您希望它执行的操作或动画。 - SceneKit框架结构如下:
ARKit 和 SceneKit 的坐标系看起来就像这样:
ARKit 和 SceneKit 关系图如下:
2.3 ARKit框架
- ARKit对开发环境要求:
Xcode版本:Xcode9及以上
iOS系统:iOS11及以上
iOS设备要求:处理器A9及以上(iPhone6s 、iPhone6sPlus、iPhone7 iPhone7Plus、iPhoneSE、iPad Pro(9.7、10.5、12.9)、iPad(2017))
MacOS系统:10.12.4及以上 (安装Xcode9对Mac系统版本有要求)
- ARKit框架类结构汇总:
2.3.1 ARKit框架与其他框架关联
如上图可以看出ARKit并不是一个独立就能够运行的框架,而是必须要SceneKit一起用才可以,换一句话说,如果只有ARKit,而没有SceneKit,那么ARKit和一般的相机没有任何区别。相机捕捉现实世界图像,由ARKit来实现;在图像中显示虚拟3D模型,由SceneKit来实现。
其中ARKit框架中中显示3D
虚拟增强现实的视图ARSCNView继承于SceneKit框架中的SCNView,而SCNView又继承于UIKit框架中的UIView。
UIView的作用是将视图显示在iOS设备的window中,SCNView的作用是显示一个3D
场景,ARSCNView的作用也是显示一个3D
场景,只不过这个3D
场景是由摄像头捕捉到的现实世界图像构成。
ARSCNView只是一个视图容器,它的作用是管理一个ARSession
在一个完整的虚拟增强现实体验中,ARKit框架只负责将真实世界画面转变为一个3D
场景,这一个转变的过程主要分为两个环节:由ARCamera负责捕捉摄像头画面,由ARSession负责搭建3D
场景。
ARKit在3D
现实场景中添加虚拟物体使用的是父类SCNView的功能,这个功能早在iOS8时就已经添加(SceneKit是iOS8新增),ARSCNView所有跟场景和虚拟物体相关的属性及方法都是自己父类SCNView的。
2.3.2 ARKit框架工作原理
ARKit提供两种虚拟增强现实视图,他们分别是3D
效果的ARSCNView和2D
效果的ARSKView。无论是使用哪一个视图都是用了相机图像作为背景视图,而这一个相机的图像就是由<ARKit>框架中的相机类ARCamera来捕捉的。
然而 ARSCNView与ARCamera两者之间并没有直接的关系,它们之间是通过AR
会话,也就是ARKit框架中非常重量级的一个类ARSession来搭建沟通桥梁的。
如果我们要想运行一个ARSession会话,我们必须要指定一个称之为ARSessionConfiguration(会话追踪配置)的对象,ARSessionConfiguration的主要目的就是负责追踪相机在3D
世界中的位置以及一些特征场景的捕捉(例如平面捕捉)。
ARSessionConfiguration是一个父类,为了更好的看到增强现实的效果,苹果官方建议我们使用它的子类ARWorldTrackingSessionConfiguration,该类只支持A9芯片之后的机型,也就是iPhone6s之后的机型。
如下图是ARSession会话扮演的角色:
ARSession搭建沟通桥梁的参与者主要有两个ARWorldTrackingSessionConfiguration与ARFrame。
ARWorldTrackingSessionConfiguration(会话追踪配置)的作用是跟踪设备的方向和位置,以及检测设备摄像头看到的现实世界的表面。它的内部实现了一系列非常庞大的算法计算以及调用了你的iPhone必要的传感器来检测手机的移动及旋转甚至是翻滚。
当ARWorldTrackingSessionConfiguration计算出相机在3D世界中的位置时,它本身并不持有这个位置数据,而是将其计算出的位置数据交给ARSession去管理,而相机的位置数据对应的类就是ARFrame。
我们可以看到ARSession类一个属性叫做currentFrame,维护的就是ARFrame这个对象。
其中ARCamera只负责捕捉图像,不参与数据的处理。它属于3D场景中的一个环节,每一个3D Scene都会有一个Camera,它觉得了我们看物体的视野。
如下图是ARSession和ARFrame的关系:
2.3.3 ARKit框架工作流程
- ARKit框架工作流程:
ARKit框架工作流程图如下:
- ARKit框架中一下类关系说明:
- ARKit框架中中显示3D虚拟增强现实的视图ARSCNView继承于SceneKit框架中的SCNView,而SCNView又继承于UIKit框架中的UIView。
- 在一个完整的虚拟增强现实体验中,ARKit框架只负责将真实世界画面转变为一个3D场景,这一个转变的过程主要分为两个环节:由 ARCamera负责捕捉摄像头画面,由ARSession负责搭建3D场景。
- ARSCNView与ARCamera两者之间并没有直接的关系,它们之间是通过AR会话,也就是ARKit框架中非常重量级的一个类ARSession来搭建沟通桥梁的。
- 要想运行一个ARSession会话,你必须要指定一个称之为会话追踪配置的对象:ARSessionConfiguration, ARSessionConfiguration的主要目的就是负责追踪相机在3D世界中的位置以及一些特征场景的捕捉(例如平面捕捉),这个类本身比较简单却作用巨大。
3. ARKit核心类
- 头文件定义如下:
#import <ARKit/ARError.h>
#import <ARKit/ARSession.h>
#import <ARKit/ARConfiguration.h>
#import <ARKit/ARFrame.h>
#import <ARKit/ARCamera.h>
#import <ARKit/ARHitTestResult.h>
#import <ARKit/ARLightEstimate.h>
#import <ARKit/ARPointCloud.h>
#import <ARKit/ARReferenceImage.h>
#import <ARKit/ARReferenceObject.h>
#import <ARKit/ARVideoFormat.h>
#import <ARKit/ARCollaborationData.h>
#import <ARKit/ARWorldMap.h>
#import <ARKit/ARRaycastQuery.h>
#import <ARKit/ARTrackedRaycast.h>
#import <ARKit/ARRaycastResult.h>
#import <ARKit/ARAnchor.h>
#import <ARKit/AREnvironmentProbeAnchor.h>
#import <ARKit/ARFaceAnchor.h>
#import <ARKit/ARFaceGeometry.h>
#import <ARKit/ARImageAnchor.h>
#import <ARKit/ARObjectAnchor.h>
#import <ARKit/ARParticipantAnchor.h>
#import <ARKit/ARPlaneAnchor.h>
#import <ARKit/ARPlaneGeometry.h>
#import <ARKit/ARSkeleton.h>
#import <ARKit/ARSkeletonDefinition.h>
#import <ARKit/ARBody2D.h>
#import <ARKit/ARBodyAnchor.h>
#import <ARKit/ARCoachingOverlayView.h>
#import <ARKit/ARSCNView.h>
#import <ARKit/ARSKView.h>
#import <ARKit/ARMatteGenerator.h>
#import <ARKit/ARQuickLookPreviewItem.h>
3.1 ARError
struct ARError
ARError 的错误码如下:
- cameraUnauthorized: 一个错误代码,表明该应用程序没有使用相机的用户权限。
- fileIOFailed: 一个错误代码,表明ARKit无法读取或写入所需的文件。
- insufficientFeatures: 错误代码表明ARKit没有完成任务所需的特性。
- invalidCollaborationData: 一个错误代码,指示ARKit无法使用特定的协作数据对象更新应用程序的会话。
- invalidConfiguration: 指示配置包含不明确或错误数据的错误代码。
- invalidReferenceImage: 指示参考图像不可用的错误代码。
- invalidReferenceObject: 指示引用对象不可用的错误代码。
- invalidWorldMap: 表示世界地图不可用的错误代码。
- microphoneUnauthorized: 一个错误代码,表明该应用程序没有使用麦克风的用户权限。
- objectMergeFailed: 一个错误代码,表明ARKit无法合并检测到的对象。
- sensorFailed: 指示传感器未能提供所需输入的错误代码。
- sensorUnavailable: 指示运行会话所需传感器的错误代码不可用。
- unsupportedConfiguration: 一个错误代码,表明您运行的配置在iOS设备上不受支持。
- worldTrackingFailed: 一个错误代码,表明世界跟踪遇到了一个致命的错误。
3.2 ARSession
- ARSession:用于控制增强现实体验的主要对象。
ARSession对象协调ARKit代表您执行的主要进程,以创建增强现实体验。这些过程包括从设备的运动感知硬件读取数据,控制设备的内置摄像头,并对捕获的摄像头图像进行图像分析。该会话综合了所有这些结果,从而在设备所在的真实空间和建模AR
内容的虚拟空间之间建立了一种对应关系。
class ARSession : NSObject
ARSession类定义
ARSession属性方法
3.2.1 ARSessionObserver
- ARSessionObserver:提供方法可以实现以响应AR会话状态的更改。
protocol ARSessionObserver
该协议定义了ARSessionDelegate、ARSCNViewDelegate和ARSKViewDelegate协议通用的可选方法。您可以在采用这些协议之一时实现此协议的方法。
3.2.2 ARSessionDelegate
- ARSessionDelegate: 提供方法可以实现从AR会话接收捕获的视频帧图像和跟踪状态。
protocol ARSessionDelegate
如果您需要直接处理会话捕获的ARFrame对象,或者直接跟踪会话的已跟踪ARAnchor对象集的更改,请实现此协议。通常,您在构建用于显示AR内容的自定义视图时采用此协议—如果您使用SceneKit或SpriteKit显示内容,则ARSCNViewDelegate和ARSKViewDelegate协议提供类似的信息并与这些技术集成。
该协议扩展了ARSessionObserver协议,因此您的会话委托也可以实现那些方法来响应会话状态的更改。
3.3 ARConfiguration
- ARConfiguration:一个对象,它定义在给定时间内在会话中启用的特定ARKit特性。
class ARConfiguration : NSObject
ARConfiguration为您可以在AR体验中配置的不同选项定义了一个基类。你自己不分配配置;而是实例化它的一个子类。
要实现AR体验的特性,您需要创建以下子类之一,并通过run(with:)在您的会话中运行它。一个会话一次只能运行一种配置,所以选择一种最能促进所需AR体验的配置。ARConfiguration提供了以下一些配置:
- ARWorldTrackingConfiguration : 跟踪设备相对于任何表面,人,或已知的图像和对象的位置和方向,ARKit可能会发现和跟踪使用设备的后摄像头。
- ARBodyTrackingConfiguration : 使您能够跟踪一个人,飞机和图像使用设备的后摄像头。
- AROrientationTrackingConfiguration :使用后置摄像头只跟踪设备的方向。
- ARImageTrackingConfiguration :通过使用设备的后置摄像头跟踪图像,只跟踪已知的图像。
- ARFaceTrackingConfiguration :只追踪设备的自拍相机中的人脸,包括动作和面部表情。
- ARObjectScanningConfiguration :使用后置摄像头来收集关于特定对象的高保真数据,你希望你的应用程序在运行时能够识别这些对象。
- ARPositionalTrackingConfiguration :只跟踪设备在三维空间中的位置。
ARConfiguration 类结构
具体定义如下:
/**
一个对象来描述和配置增强现实技术,以在ARSession中使用。
*/
API_AVAILABLE(ios(11.0))
@interface ARConfiguration : NSObject <NSCopying>
/**
确定此设备是否支持ARConfiguration。
*/
@property (class, nonatomic, readonly) BOOL isSupported;
/**
此配置和设备支持的视频格式列表。
@discussion 列表中的第一个元素是会话输出的默认格式。
*/
@property (class, nonatomic, readonly) NSArray<ARVideoFormat *> *supportedVideoFormats API_AVAILABLE(ios(11.3));
/**
视频格式的会话输出。
*/
@property (nonatomic, strong) ARVideoFormat *videoFormat API_AVAILABLE(ios(11.3));
/**
决定了坐标系应该如何与世界保持一致。
@discussion 默认是 ARWorldAlignmentGravity.
*/
@property (nonatomic, assign) ARWorldAlignment worldAlignment;
/**
启用或禁用光估计。
@discussion 默认开启
*/
@property (nonatomic, assign, getter=isLightEstimationEnabled) BOOL lightEstimationEnabled;
/**
确定是否捕获和提供音频数据。
@discussion 默认禁止.
*/
@property (nonatomic, assign) BOOL providesAudioData;
/**
为每个框架提供的语义理解类型。
@discussion 使用“supportsFrameSemantics”类方法检查要运行的配置类型是否支持框架语义集。例如,当运行一个会话时
一个ARWorldTrackingConfiguration类型的配置需要使用“+[ARWorldTrackingConfiguration supportsFrameSemantics:]”来执行上述检查。
如果该选项,则引发异常
不支持。默认为ARFrameSemanticNone。
@see ARFrameSemantics
@see +[ARConfiguration supportsFrameSemantics:]
*/
@property (nonatomic, assign) ARFrameSemantics frameSemantics API_AVAILABLE(ios(13.0));
/**
确定设备和ARConfiguration类是否支持帧语义的类型。
@discussion 并非所有设备都支持语义框架理解。使用“supportsFrameSemantics”类方法检查要运行的配置类型是否支持
框架语义集。例如,当运行一个配置类型为ARWorldTrackingConfiguration的会话时,就需要使用它
+[ARWorldTrackingConfiguration supportsFrameSemantics:]来执行上述检查。
@see ARFrameSemantics
*/
+ (BOOL)supportsFrameSemantics:(ARFrameSemantics)frameSemantics API_AVAILABLE(ios(13.0));
/** Unavailable */
- (instancetype)init NS_UNAVAILABLE;
+ (instancetype)new NS_UNAVAILABLE;
@end
3.3.1 ARObjectScanningConfiguration
-
ARObjectScanningConfiguration :
用于收集物理环境中真实对象的高保真空间数据的配置。
class ARObjectScanningConfiguration : ARConfiguration
ARObjectScanningConfiguration类定义:
/**
扫描对象的配置。
@discussion 对象扫描配置运行世界跟踪,捕获额外的细节以创建引用对象。
运行对象扫描将消耗额外的能量,以提供更详细的功能。
可以在会话中调用createReferenceObject方法来捕获世界中对象的扫描。
*/
API_AVAILABLE(ios(12.0))
@interface ARObjectScanningConfiguration : ARConfiguration
/**
启用或禁用连续自动对焦。
@discussion 默认开启.
*/
@property (nonatomic, assign, getter=isAutoFocusEnabled) BOOL autoFocusEnabled;
/**
场景中要检测的飞机类型。
@discussion 如果设置,新的飞机将继续被检测和更新的时间。检测到的平面将被添加到会话中
ARPlaneAnchor对象。如果两个平面合并,则新平面将被删除。默认为ARPlaneDetectionNone。
*/
@property (nonatomic, assign) ARPlaneDetection planeDetection;
- (instancetype)init;
+ (instancetype)new NS_SWIFT_UNAVAILABLE("Use init() instead");
@end
要创建一个识别物理环境中的对象的应用程序,首先要在开发期间使用ARObjectScanningConfiguration 扫描它们。扫描对象之后,调用createReferenceObject(transform:center:extent:completionHandler:) 将其转换为一个可以在运行时再次检测它的ARReferenceObject。当用户运行你的应用程序时,你要求ARKit通过运行一个世界跟踪配置来寻找你扫描的objects,并将引用对象分配给它的detectionObjects属性。
ARObjectScanningConfiguration 仅用于开发场景。由于对象扫描所需的高保真空间映射具有较高的性能和能量消耗,因此禁用了许多对象扫描不需要的ARKit特性。
createReferenceObject(transform:center:extent:completionHandler:) 函数说明:从会话的世界空间的指定区域创建一个引用对象(用于3D对象检测)。它的定义如下:
func createReferenceObject(transform: simd_float4x4,
center: simd_float3,
extent: simd_float3,
completionHandler: @escaping (ARReferenceObject?, Error?) -> Void)
这个函数会返回一个表示世界地图的指定区域的一个ARReferenceObject。
参数说明:
transform
:定义要提取区域的局部坐标系统的原点和方向的变换矩阵。center
:相对于transform
指定的原点的一个点,它定义要提取的区域的边界框的中心。extent
:要提取的区域的宽度、高度和深度,以中心点为中心并指向变换指定的本地坐标系统。completionHandler
:在ARKit完成创建引用对象后异步调用的处理程序。处理程序有两个参数:referenceObject
: 生成的ARReferenceObject,如果不能创建引用对象,则为nil。
6error
: 如果referenceObject为nil,则会出现一个ARError来描述失败。
注意:此方法仅在使用ARObjectScanningConfiguration运行会话时有效,该配置支持扫描引用对象所需的高保真空间数据收集。在具有不同配置的会话上调用此方法将立即调用带有错误的completionHandler。
要使用提取的参考对象进行3D
对象检测,请将其分配给世界跟踪配置的detectionObjects属性。您可以将引用对象保存到文件中,并将它们添加到Xcode资产目录中,从而将它们绑定到应用程序中。
当ARKit检测到一个引用图像时,结果ARObjectAnchor的转换基于引用对象的坐标系统的组织——在提取引用对象时指定的转换。例如,如果引用对象表示位于水平面上的物理项,则虚拟内容应该出现在物理对象所做的任何表面上。要在提取后调整引用对象的原点,请使用applyingTransform()方法。
- applyingTransform()方法说明: 这个方法返回一个将指定的转换应用于此引用对象的几何数据而创建的新引用对象。
func applyingTransform(_ transform: simd_float4x4) -> ARReferenceObject
传入参数transform
: 参考对象的局部坐标空间中的变换矩阵。
从ARWorldMap中提取引用对象时,要定义它的本地坐标空间。如果现有的引用对象具有与对象的预期用途不匹配的局部坐标原点,则调用此方法来更改引用对象相对于其所表示的物理对象的原点。
当ARKit检测到一个引用对象时,结果ARObjectAnchor的转换基于引用对象的坐标系统的组织。例如,如果引用对象表示位于水平面上的物理项,则虚拟内容应该出现在物理对象所做的任何表面上。因此,将引用对象的坐标原点与物理对象的底部对齐通常很有用。
3.3.2 ARBodyTrackingConfiguration
- ARBodyTrackingConfiguration: 在三维空间中用来跟踪人的运动的一种配置。
class ARBodyTrackingConfiguration : ARConfiguration
当ARKit在后摄像头提要中识别一个人时,它调用session(_:didAdd:),并向您传递一个ARBodyAnchor,您可以使用它来跟踪身体的运动。
启用了平面检测和图像检测。如果使用body锚来显示虚拟字符,则可以在选择的表面或图像上设置该字符。
默认情况下,ARConfiguration.FrameSemantics类型的bodyDetection是启用的,它允许你访问一个人的关节位置,ARKit通过帧的detectedBody在摄像头反馈中检测到这个人。
3.3.2.1 ARBodyTrackingConfiguration 类定义
/**
用于运行身体跟踪的配置。
@discussion 身体跟踪提供了6个自由度的跟踪被检测的身体在现场。默认情况下,ARFrameSemanticBodyDetection是
启用。
@see ARBodyAnchor
@see -[ARFrame detectedBody]
*/
API_AVAILABLE(ios(13.0))
@interface ARBodyTrackingConfiguration : ARConfiguration
/**
启用或禁用连续自动对焦。
@discussion 默认开启.
*/
@property (nonatomic, assign, getter=isAutoFocusEnabled) BOOL autoFocusEnabled;
/**
世界跟踪将定位和跟踪的物理空间的初始地图。
@discussion 如果设置了,会话将尝试本地化到提供的映射
在本地化成功或再次运行之前,将调用有限的跟踪状态
指定了不同的(或没有)初始映射。一旦本地化,地图将被扩展
并且可以在会话中使用' getCurrentWorldMap '方法再次保存。
*/
@property (nonatomic, strong, nullable) ARWorldMap *initialWorldMap;
/**
运行环境纹理的模式。
@discussion 如果设置,纹理信息将被积累和更新。向会话添加一个AREnvironmentProbeAnchor
将获得当前环境纹理从探测器的角度可以用来照明
场景中的虚拟对象。默认为AREnvironmentTexturingNone。
*/
@property (nonatomic, assign) AREnvironmentTexturing environmentTexturing;
/**
确定环境纹理是否具有高动态范围。默认启用。
*/
@property (nonatomic, assign) BOOL wantsHDREnvironmentTextures;
/**
场景中要检测的飞机类型。
@discussion 如果设置,新的飞机将继续被检测和更新的时间。检测到的平面将被添加到会话中
ARPlaneAnchor对象。如果两个平面合并,则新平面将被删除。默认为ARPlaneDetectionNone。
*/
@property (nonatomic, assign) ARPlaneDetection planeDetection;
/**
在场景中检测图像。
@discussion 如果设置,会话将尝试检测指定的图像。当检测到一个图像时,ARImageAnchor将被添加到会话中。
*/
@property (nonatomic, copy) NSSet<ARReferenceImage *> *detectionImages;
/**
启用可用于校正图像的物理大小的比例因子的估计。
@discussion 如果设置为true ARKit,将尝试使用计算过的摄像机位置来计算给定物理大小所对应的比例
与估计的不同。关于估计比例尺的信息可以在ARImageAnchor上找到estimatedScaleFactor属性。
@note 当设置为true时,返回的ARImageAnchor的转换将使用估计的比例因子来修正转换。默认值是NO。
*/
@property (nonatomic, assign) BOOL automaticImageScaleEstimationEnabled;
/**
允许估计比例因子,该比例因子可用于在3D中纠正骨骼的物理大小。
@discussion 如果设置为true ARKit,将尝试使用计算过的摄像机位置来计算给定物理大小所对应的比例
与默认值不同。关于估计比例尺的信息可以在ARBodyAnchor上找到estimatedScaleFactor属性。
@note 当设置为true时,返回的ARBodyAnchor的转换将使用估计的比例因子来修正转换。默认值是NO。
*/
@property (nonatomic, assign) BOOL automaticSkeletonScaleEstimationEnabled;
/**
同时跟踪的最大图像数。
@discussion 设置跟踪图像的最大数量将限制给定帧中可以跟踪的图像的数量。
如果看到的图像超过最大值,则只有已经被跟踪的图像将继续跟踪,直到丢失跟踪或删除另一个图像为止。
不管跟踪的图像是什么,图像都将继续被检测到。默认值为0。
*/
@property (nonatomic, assign) NSInteger maximumNumberOfTrackedImages;
- (instancetype)init;
+ (instancetype)new NS_SWIFT_UNAVAILABLE("Use init() instead");
@end
3.3.2.1 ARBodyTrackingConfiguration 属性和方法
- 创建一个配置
//创建一个新的身体跟踪配置。
init()
//试图使用此会话配置恢复前一个AR会话的状态。
var initialWorldMap: ARWorldMap?
- 估计身体比例
//一个标志,它决定ARKit是否估计它所跟踪的物体的高度。
var automaticSkeletonScaleEstimationEnabled: Bool
- 支持自动对焦
//一个布尔值,用于确定设备摄像头是使用固定焦距还是自动焦距。
var isAutoFocusEnabled: Bool
- 使飞机检测
//一个值,指定会话是否以及如何尝试自动检测摄像机捕获的图像中的平面。
var planeDetection: ARWorldTrackingConfiguration.PlaneDetection
//选择是否和如何检测捕获的图像平面
struct ARWorldTrackingConfiguration.PlaneDetection
- 使图像跟踪
//一个标志,指示ARKit估计和设置跟踪图像的规模代表您。
var automaticImageScaleEstimationEnabled: Bool
//ARKit试图在用户环境中检测的一组图像。
var detectionImages: Set<ARReferenceImage>
//检测图像的最大数目,为其同时跟踪运动。
var maximumNumberOfTrackedImages: Int
- 增加了现实的反射
//一个标志,指示ARKit创建HDR格式的环境纹理。
var wantsHDREnvironmentTextures: Bool
//用于生成环境纹理。
var environmentTexturing: ARWorldTrackingConfiguration.EnvironmentTexturing
3.3.3 ARFaceTrackingConfiguration
- ARFaceTrackingConfiguration: 当你只是想要使用设备的前置摄像头来跟踪人脸时,你可以使用这种配置。
class ARFaceTrackingConfiguration : ARConfiguration
人脸跟踪配置检测可以在设备的前置摄像头中看到的人脸。当ARKit检测到人脸时,它会创建一个ARFaceAnchor对象,该对象提供关于人脸的位置和方向、拓扑结构以及描述面部表情的特征的信息。
面部跟踪只能在带有前置TrueDepth摄像头的iOS设备上使用(参见iOS设备兼容性参考资料)。在为用户提供任何需要面部跟踪的功能之前,使用ARFaceTrackingConfiguration isSupported属性来确定当前设备上是否可以进行面部跟踪。
ARFaceTrackingConfiguration类不提供方法或属性,但是支持从它的超类ARConfiguration继承的所有属性。此外,当您启用isLightEstimationEnabled设置时,面部跟踪配置将检测到的面部用作光探测器,并提供定向或环境照明的估计(一个ARDirectionalLightEstimate对象)。
面部跟踪为您的应用程序提供个人面部信息。如果你使用ARKit面部跟踪功能,你的应用程序必须包括一个隐私政策,向用户描述你打算如何使用面部跟踪和面部数据。有关详细信息,请参见苹果开发者程序许可协议。
3.3.3.1 ARFaceTrackingConfiguration 类定义
/**
运行面部跟踪的配置.
@discussion 面部跟踪使用前置摄像头在3D中跟踪面部,提供关于面部拓扑结构和表情的细节。
检测到的人脸将作为ARFaceAnchor对象添加到会话中,该对象包含关于头部姿态、网格、眼睛姿态和混合形状的信息
系数。如果光估计是启用的,被检测的脸将被视为一个光探针,用来估计入射光的方向。
*/
API_AVAILABLE(ios(11.0))
@interface ARFaceTrackingConfiguration : ARConfiguration
/**
可以同时跟踪的最大面数。
*/
@property (class, nonatomic, readonly) NSInteger supportedNumberOfTrackedFaces API_AVAILABLE(ios(13.0));
/**
同时跟踪的最大面数。
@discussion 设置最大跟踪面数将限制给定帧中可以跟踪的面数。
如果超过最大值可见,只有已经被跟踪的面孔将继续跟踪,直到跟踪丢失或另一个面孔被删除。
默认值为1。
*/
@property (nonatomic, assign) NSInteger maximumNumberOfTrackedFaces API_AVAILABLE(ios(13.0));
/**
指示是否可以在此设备上启用世界跟踪。
*/
@property (class, nonatomic, readonly) BOOL supportsWorldTracking API_AVAILABLE(ios(13.0));
/**
启用或禁用世界跟踪。默认情况下禁用。
@discussion 启用后,ARSession使用后置摄像头来跟踪设备在世界上的方位和位置。摄像机变换和ARFaceAnchor变换将在世界坐标空间中。
*/
@property (nonatomic, assign, getter=isWorldTrackingEnabled) BOOL worldTrackingEnabled API_AVAILABLE(ios(13.0));
- (instancetype)init;
+ (instancetype)new NS_SWIFT_UNAVAILABLE("Use init() instead");
@end
3.3.3.2 ARFaceTrackingConfiguration 属性和方法
- 创建一个配置
//创建一个新的面部跟踪配置。
init()
- 开启世界跟踪
//iOS设备是否支持世界跟踪与面部跟踪。
class var supportsWorldTracking: Bool
//使世界跟踪与脸跟踪是否开启。
var isWorldTrackingEnabled: Bool
- 跟踪多个面孔
//同时跟踪的最大面数。
var maximumNumberOfTrackedFaces: Int
//ARKit可以同时跟踪的最大面数。
class var supportedNumberOfTrackedFaces: Int
3.3.4 ARWorldTrackingConfiguration
- ARWorldTrackingConfiguration : 跟踪设备相对于任何表面,人,或已知的图像和对象的位置和方向,ARKit可能会发现和跟踪使用设备的后摄像头。
class ARWorldTrackingConfiguration : ARConfiguration
所有AR
配置都建立了设备所在的真实世界与虚拟3d
坐标空间之间的对应关系,在虚拟坐标空间中,您可以对内容进行建模。当您的应用程序将虚拟内容与实时摄像机图像混合时,用户会产生一种错觉,认为您的虚拟内容是真实世界的一部分。
创建和维护空间之间的这种对应关系需要跟踪设备的移动。ARWorldTrackingConfiguration类使用六个自由度(6DOF
)跟踪设备的移动:三个旋转轴(滚动、俯仰和偏航)和三个平移轴(x
、y
和z
中的移动)。
这种跟踪可以创造身临其境的基于“增大化现实”技术的游戏体验:虚拟对象可以呆在同一个地方出现相对于现实世界,即使用户倾斜设备高于或低于该对象,或移动周围的设备对象的两侧和背部。
ARWorldTrackingConfiguration 提供 6DoF(Six Degree of Freedom)
的设备追踪。包括三个姿态角 Yaw
(偏航角)、Pitch
(俯仰角)和 Roll
(翻滚角),以及沿笛卡尔坐标系中 X
、Y
和 Z
三轴的偏移量,如下图:
不仅如此,ARKit 还使用了
VIO(Visual-Inertial Odometry)
来提高设备运动追踪的精度。在使用惯性测量单元(IMU
)检测运动轨迹的同时,对运动过程中摄像头拍摄到的图片进行图像处理。将图像中的一些特征点的变化轨迹与传感器的结果进行比对后,输出最终的高精度结果。
3.3.4.1 ARWorldTrackingConfiguration 类定义
ARWorldTrackingConfiguration还提供了几种方法,让你的应用程序识别或与相机可见的真实世界场景的元素进行交互:
- 使用planeDetection查找真实世界的水平或垂直表面,将它们作为ARPlaneAnchor对象添加到会话中。
- 使用detectionImages识别和跟踪已知的2D图像的移动,将它们作为ARImageAnchor对象添加到场景中。
- 使用detectionObjects来识别已知的3D对象,将它们作为ARObjectAnchor对象添加到场景中。
- 在ARFrame、ARView、ARSCNView或ARSKView上使用光线投射函数来查找与摄像机视图中的2D点相关的真实世界特征的3D位置。
ARWorldTrackingConfiguration类定义:
/**
运行世界跟踪的配置.
@discussion 世界跟踪提供6个自由度的跟踪设备。
通过在场景中寻找特征点,世界跟踪可以对帧执行命中测试。
一旦会话暂停,跟踪将不能再继续。
*/
API_AVAILABLE(ios(11.0))
@interface ARWorldTrackingConfiguration : ARConfiguration
/**
启用或禁用连续自动对焦。
@discussion 默认开启.
*/
@property (nonatomic, assign, getter=isAutoFocusEnabled) BOOL autoFocusEnabled API_AVAILABLE(ios(11.3));
/**
运行环境纹理的模式。
@discussion 如果设置,纹理信息将被积累和更新。向会话添加一个AREnvironmentProbeAnchor
将获得当前环境纹理从探测器的角度可以用来照明
场景中的虚拟对象。默认为AREnvironmentTexturingNone。
*/
@property (nonatomic, assign) AREnvironmentTexturing environmentTexturing API_AVAILABLE(ios(12.0));
/**
确定环境纹理是否具有高动态范围。
默认启用。
*/
@property (nonatomic, assign) BOOL wantsHDREnvironmentTextures API_AVAILABLE(ios(13.0));
/**
场景中要检测的飞机类型。
@discussion 如果设置,新的飞机将继续被检测和更新的时间。检测到的平面将被添加到会话中
ARPlaneAnchor对象。如果两个平面合并,则新平面将被删除。默认为ARPlaneDetectionNone。
*/
@property (nonatomic, assign) ARPlaneDetection planeDetection;
/**
世界跟踪将定位和跟踪的物理空间的初始地图。
@discussion 如果设置了,会话将尝试本地化到提供的映射
在本地化成功或再次运行之前,将调用有限的跟踪状态
指定了不同的(或没有)初始映射。一旦本地化,地图将被扩展
并且可以在会话中使用' getCurrentWorldMap '方法再次保存。
*/
@property (nonatomic, strong, nullable) ARWorldMap *initialWorldMap API_AVAILABLE(ios(12.0));
/**
在场景中检测图像。
@discussion 如果设置,会话将尝试检测指定的图像。当检测到一个图像时,ARImageAnchor将被添加到会话中。
*/
@property (nonatomic, copy, null_resettable) NSSet<ARReferenceImage *> *detectionImages API_AVAILABLE(ios(11.3));
/**
启用可用于校正图像的物理大小的比例因子的估计。
@discussion 如果设置为true, ARKit将尝试使用计算过的摄像机位置来计算给定物理大小所对应的比例
与估计的不同。关于估计比例尺的信息可以在ARImageAnchor上找到estimatedScaleFactor属性。
@note 当设置为true时,返回的ARImageAnchor的转换将使用估计的比例因子来修正转换。默认值是NO。
*/
@property (nonatomic, assign) BOOL automaticImageScaleEstimationEnabled API_AVAILABLE(ios(13.0));
/**
同时跟踪的最大图像数。
@discussion 设置跟踪图像的最大数量将限制给定帧中可以跟踪的图像的数量。
如果看到的图像超过最大值,则只有已经被跟踪的图像将继续跟踪,直到丢失跟踪或删除另一个图像为止。
不管跟踪的图像是什么,图像都将继续被检测到。默认值为0。
*/
@property (nonatomic, assign) NSInteger maximumNumberOfTrackedImages API_AVAILABLE(ios(12.0));
/**
要在场景中检测的对象。
@discussion 如果设置,会话将尝试检测指定的对象。当检测到一个对象时,ARObjectAnchor将被添加到会话中。
*/
@property (nonatomic, copy) NSSet<ARReferenceObject *> *detectionObjects API_AVAILABLE(ios(12.0));
/**
启用/禁用协作会话。默认情况下禁用。
@discussion 当启用时,ARSession将使用其委托didOutputCollaborationData为其他参与者输出协作数据。
调用者的职责是将数据发送给每个参与者。当一个参与者接收到数据时,它
应该通过调用updateWithCollaborationData传递给ARSession。
*/
@property (nonatomic, assign, getter=isCollaborationEnabled) BOOL collaborationEnabled API_AVAILABLE(ios(13.0));
/**
指示是否可以在此设备上启用使用前置摄像头的用户脸部跟踪。
*/
@property (class, nonatomic, readonly) BOOL supportsUserFaceTracking API_AVAILABLE(ios(13.0));
/**
启用或禁用运行面部跟踪使用前置摄像头。默认情况下禁用。
当启用时,ARSession会检测人脸(如果在前置摄像头图像中可见),并将其添加到锚点列表中,
表示每个面的ARFaceAnchor对象。
@discussion ARFaceAnchor对象的变换将在世界坐标空间中进行。
@see ARFaceAnchor
*/
@property (nonatomic, assign, getter=userFaceTrackingEnabled) BOOL userFaceTrackingEnabled API_AVAILABLE(ios(13.0));
- (instancetype)init;
+ (instancetype)new NS_SWIFT_UNAVAILABLE("Use init() instead");
@end
3.3.4.2 ARWorldTrackingConfiguration 属性, 方法说明
- 创建一个配置:
init()
: 初始化一个新的世界跟踪配置。var initialWorldMap: ARWorldMap?
: 试图使用此会话配置恢复前一个AR会话的状态。
- 跟踪表面:
var planeDetection: ARWorldTrackingConfiguration.PlaneDetection
:一个值,指定会话是否以及如何自动尝试检测摄像机捕获的图像中的平面。struct ARWorldTrackingConfiguration.PlaneDetection
: 选择是否和如何检测捕获的图像平面。var sceneReconstruction: ARConfiguration.SceneReconstruction
: 使场景重建成为可能的标志。class func supportsSceneReconstruction(ARConfiguration.SceneReconstruction) -> Bool
: 检查设备是否支持场景重建。
- 检测或跟踪图像:
var detectionImages: Set<ARReferenceImage>!
: ARKit试图在用户环境中检测的一组图像。var maximumNumberOfTrackedImages: Int
: 用于同时跟踪运动的检测图像的最大数目。var automaticImageScaleEstimationEnabled: Bool
: 一个标志,指示ARKit估计和设置一个检测或跟踪图像的规模代表您。
- 检测3D对象:
var detectionObjects: Set<ARReferenceObject>
: 一组用于ARKit尝试在用户环境中检测的3D对象。
- 跟踪用户的脸:
var userFaceTrackingEnabled: Bool
: 一个标志,它决定ARKit是否在一个世界跟踪会话中跟踪用户的脸。class var supportsUserFaceTracking: Bool
:一个布尔值,告诉你iOS设备是否支持在世界跟踪会话期间跟踪用户的脸。
- 创建现实反射:
var environmentTexturing: ARWorldTrackingConfiguration.EnvironmentTexturing
: 行为ARKit用于生成环境纹理。enum ARWorldTrackingConfiguration.EnvironmentTexturing
: 在世界跟踪AR会话中生成环境纹理的选项。class AREnvironmentProbeAnchor
: 在世界跟踪AR会话中为特定空间区域提供环境照明信息的对象。var wantsHDREnvironmentTextures: Bool
: 一个标志,指示ARKit创建HDR格式的环境纹理。
- 管理设备摄像头行为:
var isAutoFocusEnabled: Bool
: 一个布尔值,用于确定设备摄像头是使用固定焦距还是自动焦距。
- 允许多用户协作:
var isCollaborationEnabled: Bool
: 一个标志,选择你在一个点对点多用户增强现实的经验。
3.3.5 AROrientationTrackingConfiguration
- AROrientationTrackingConfiguration :使用后置摄像头只跟踪设备的方向。当你只想使用设备的后置摄像头跟踪设备的方向时,你使用此AROrientationTrackingConfiguration配置即可。
class AROrientationTrackingConfiguration : ARConfiguration
所有AR
配置都建立了设备所在的真实世界与虚拟3D
坐标空间之间的对应关系,在虚拟3D
坐标空间中可以对内容进行建模。当你的应用程序将这些内容与实时的摄像头图像一起显示时,用户会产生一种错觉,认为你的虚拟内容是现实世界的一部分。
创建和维护空间之间的这种对应关系需要跟踪设备的移动。AROrientationTrackingConfiguration类使用三个自由度(3DOF
)来跟踪设备的移动:具体来说,就是三个旋转轴(滚动、俯仰和偏航)。
这种基本级别的运动跟踪可以创建有限的AR
体验:一个虚拟对象可以看起来是现实世界的一部分,即使用户旋转设备查看该对象的上面、下面或旁边。然而,这种配置不能跟踪设备的移动:非琐碎地改变设备的位置会打破AR错觉,导致虚拟内容相对于真实世界出现漂移。例如,用户不能四处走动查看虚拟对象的侧面和背面。此外,3DOF
跟踪不支持平面检测或命中测试。
因为
3DOF
跟踪创建有限的AR
体验,你通常不应该直接使用AROrientationTrackingConfiguration类。相反,使用ARWorldTrackingConfiguration进行6自由度的平面检测和命中测试。仅在6DOF跟踪暂时不可用的情况下,使用3DOF跟踪作为备份。
3.3.5.1 AROrientationTrackingConfiguration 类定义
AROrientationTrackingConfiguration 类定义
/**
用于运行方向跟踪的配置。
@discussion 定位跟踪提供了3个自由度的设备跟踪。
*/
API_AVAILABLE(ios(11.0))
@interface AROrientationTrackingConfiguration : ARConfiguration
/**
启用或禁用连续自动对焦。
@discussion 默认启用
*/
@property (nonatomic, assign, getter=isAutoFocusEnabled) BOOL autoFocusEnabled API_AVAILABLE(ios(11.3));
- (instancetype)init;
+ (instancetype)new NS_SWIFT_UNAVAILABLE("Use init() instead");
@end
3.3.5.2 AROrientationTrackingConfiguration 属性方法说明
- 创建一个配置:
init()
: 初始化一个新的方向跟踪配置。
- 管理设备摄像头行为:
var isAutoFocusEnabled: Bool
: 一个布尔值,用于确定设备摄像头是使用固定焦距还是自动焦距。
3.3.6 ARImageTrackingConfiguration
- ARImageTrackingConfiguration :通过使用设备的后置摄像头跟踪图像,只跟踪已知的图像。当你只是想要跟踪已知的图像使用设备的后摄像的数据时使用ARImageTrackingConfiguration 配置。
class ARImageTrackingConfiguration : ARConfiguration
所有AR
配置都建立了设备所在的真实世界与虚拟3D
坐标空间之间的对应关系,在虚拟3D
坐标空间中可以对内容进行建模。当你的应用程序将这些内容与实时的摄像头图像一起显示时,用户会产生一种错觉,认为你的虚拟内容是现实世界的一部分。
通过ARImageTrackingConfiguration , ARKit不是通过跟踪设备相对于世界的运动来建立一个3D空间,而是仅仅通过检测和跟踪已知的二维图像在摄像机中的运动。ARWorldTrackingConfiguration也可以检测图像,但每种配置都有自己的优势。ARImageTrackingConfiguration 的特点如下 :
- 与只跟踪图像相比,世界跟踪具有更高的性能成本,因此您的会话可以使用ARImageTrackingConfiguration一次可靠地跟踪更多的图像。
- 只跟踪图像,让您锚虚拟内容到已知的图像,只有当这些图像是在相机的视野。世界跟踪与图像检测允许您使用已知的图像添加虚拟内容到
3D
世界,并继续跟踪该内容在世界空间的位置,即使图像不再在视图中。 - 世界跟踪在稳定、静止的环境中效果最好。您可以在更多的情况下使用图像跟踪将虚拟内容添加到已知的图像中——例如,在移动的地铁车厢内的广告。
当图像跟踪配置检测到已知的图像时,它将以6个自由度(6DOF
)跟踪它们的移动:具体来说,就是3个旋转轴(滚动、俯仰和偏航)和3个平移轴(x
、y
和z
的移动)。
要使用ARImageTrackingConfiguration,请定义ARReferenceImage对象(在运行时或通过将它们绑定到Xcode资产目录中),并将它们分配给配置的trackingImages属性。然后,与任何AR配置一样,将配置传递给会话的run(_:options:)方法。
3.3.6.1 ARImageTrackingConfiguration 类定义
ARImageTrackingConfiguration 类定义:
/**
运行图像跟踪的配置。
@discussion 图像跟踪提供6个自由度的跟踪已知图像。可以同时跟踪四幅图像。
*/
API_AVAILABLE(ios(12.0))
@interface ARImageTrackingConfiguration : ARConfiguration
/**
启用或禁用连续自动对焦。
@discussion 默认启用
*/
@property (nonatomic, assign, getter=isAutoFocusEnabled) BOOL autoFocusEnabled;
/**
在场景中跟踪图像。
*/
@property (nonatomic, copy) NSSet<ARReferenceImage *> *trackingImages;
/**
同时跟踪的最大图像数。
@discussion 设置跟踪图像的最大数量将限制给定帧中可以跟踪的图像的数量。
如果看到的图像超过最大值,则只有已经被跟踪的图像将继续跟踪,直到丢失跟踪或删除另一个图像为止。
默认值为1。
*/
@property (nonatomic, assign) NSInteger maximumNumberOfTrackedImages;
- (instancetype)init;
+ (instancetype)new NS_SWIFT_UNAVAILABLE("Use init() instead");
@end
3.3.6.2 ARImageTrackingConfiguration 属性说明
- 创建一个配置:
init()
: 初始化一个新的图像跟踪配置。
- 选择图像进行跟踪:
var trackingImages: Set<ARReferenceImage>
: ARKit试图在用户环境中检测和跟踪的一组图像。var maximumNumberOfTrackedImages: Int
: 要同时跟踪运动的图像的最大数目。
- 管理设备摄像头行为:
var isAutoFocusEnabled: Bool
: 一个布尔值,用于确定设备摄像头是使用固定焦距还是自动焦距。
3.3.7 ARObjectScanningConfiguration
- ARPositionalTrackingConfiguration :只跟踪设备在三维空间中的位置。用于收集物理环境中真实对象的高保真空间数据的配置。
class ARObjectScanningConfiguration : ARConfiguration
要创建一个识别物理环境中的对象的应用程序:
- 首先要在开发期间使用ARObjectScanningConfiguration扫描它们。
- 扫描对象之后,调用 createReferenceObject(transform:center:extent:completionHandler:) 其转换为一个可以在运行时再次检测它的ARReferenceObject。
- 当用户运行你的应用程序时,你要求ARKit通过运行一个世界跟踪配置来寻找你扫描的物体,并将引用对象分配给它的detectionObjects属性。
ARObjectScanningConfiguration仅用于开发场景。由于对象扫描所需的高保真空间映射具有较高的性能和能量消耗,因此禁用了许多对象扫描不需要的ARKit特性。
3.3.7.1 ARObjectScanningConfiguration 类定义
ARPositionalTrackingConfiguration 类定义:
/**
扫描对象的配置。
@discussion 对象扫描配置运行世界跟踪,捕获额外的细节以创建引用对象。
运行对象扫描将消耗额外的能量,以提供更详细的功能。
可以在会话中调用createReferenceObject方法来捕获世界中对象的扫描。
*/
API_AVAILABLE(ios(12.0))
@interface ARObjectScanningConfiguration : ARConfiguration
/**
启用或禁用连续自动对焦。
@discussion 默认开启.
*/
@property (nonatomic, assign, getter=isAutoFocusEnabled) BOOL autoFocusEnabled;
/**
场景中要检测的飞机类型。
@discussion 如果设置,新的飞机将继续被检测和更新的时间。检测到的平面将被添加到会话中
ARPlaneAnchor对象。如果两个平面合并,则新平面将被删除。默认为ARPlaneDetectionNone。
*/
@property (nonatomic, assign) ARPlaneDetection planeDetection;
- (instancetype)init;
+ (instancetype)new NS_SWIFT_UNAVAILABLE("Use init() instead");
@end
3.3.7.1 ARObjectScanningConfiguration 属性说明
- 创建一个配置:
init()
: 初始化一个新的对象扫描配置。
- 使飞机检测:
var planeDetection: ARWorldTrackingConfiguration.PlaneDetection
: 一个值,指定会话是否以及如何尝试自动检测摄像机捕获的图像中的平面。struct ARWorldTrackingConfiguration.PlaneDetection
: 选择是否和如何检测捕获的图像平面。
- 管理设备摄像头行为:
var isAutoFocusEnabled: Bool
: 一个布尔值,用于确定设备摄像头是使用固定焦距还是自动焦距。
3.3.8 ARPositionalTrackingConfiguration
- ARPositionalTrackingConfiguration: 当您只想跟踪设备在空间中的位置时使用的配置。
class ARPositionalTrackingConfiguration : ARConfiguration
通过以尽可能低的分辨率和帧速率运行摄像头,支持iOS设备的6个自由度跟踪。当您不需要解析摄像机提要(例如,虚拟现实场景)时,请使用此配置。
3.3.8.1 ARPositionalTrackingConfiguration 类定义
/**
用于运行位置跟踪的配置。
@discussion 通过以尽可能低的分辨率和帧速率运行摄像机,位置跟踪提供了6个自由度的设备跟踪。
*/
API_AVAILABLE(ios(13.0))
@interface ARPositionalTrackingConfiguration : ARConfiguration
/**
场景中要检测的飞机类型。
@discussion 如果设置,新的飞机将继续被检测和更新的时间。检测到的平面将被添加到会话中
ARPlaneAnchor对象。如果两个平面合并,则新平面将被删除。默认为ARPlaneDetectionNone。
*/
@property (nonatomic, assign) ARPlaneDetection planeDetection;
/**
世界跟踪将定位和跟踪的物理空间的初始地图。
@discussion 如果设置了,会话将尝试本地化到提供的映射
在本地化成功或再次运行之前,将调用有限的跟踪状态
指定了不同的(或没有)初始映射。一旦本地化,地图将被扩展
并且可以在会话中使用' getCurrentWorldMap '方法再次保存。
*/
@property (nonatomic, strong, nullable) ARWorldMap *initialWorldMap;
- (instancetype)init;
+ (instancetype)new NS_SWIFT_UNAVAILABLE("Use init() instead");
@end
3.3.8.2 ARPositionalTrackingConfiguration 属性
- 创建一个配置:
init()
:创建一个新的位置跟踪配置。var initialWorldMap: ARWorldMap?
: 试图使用此会话配置恢复前一个AR会话的状态。
- 检测真实的表面:
var planeDetection: ARWorldTrackingConfiguration.PlaneDetection
: 一个值,指定会话是否以及如何自动尝试检测摄像机捕获的图像中的平面。
3.3.9 ARKit 坐标系
ARKit 使用笛卡尔坐标系度量真实世界。ARSession 开启时的设备位置即是坐标轴的原点。而 ARSessionConfiguration 的 worldAlignment 属性决定了三个坐标轴的方向,该属性有三个枚举值:
- ARWorldAlignmentCamera
- ARWorldAlignmentGravity
- ARWorldAlignmentGravityAndHeading
三种枚举值对应的坐标轴如下图所示:
对于 ARWorldAlignmentCamera 来说,设备的姿态决定了三个坐标轴的方向。这种坐标设定适用于以设备作为参考系的坐标计算,与真实地理环境无关,比如用 AR 技术丈量真实世界物体的尺寸。
对于 ARWorldAlignmentGravity 来说,Y 轴方向始终与重力方向平行,而其 X、Z 轴方向仍然由设备的姿态确定。这种坐标设定适用于计算拥有重力属性的物体坐标,比如放置一排氢气球,或者执行一段篮球下落的动画。
对于 ARWorldAlignmentGravityAndHeading 来说,X、Y、Z 三轴固定朝向正东、正上、正南。在这种模式下 ARKit 内部会根据设备偏航角的朝向与地磁真北(非地磁北)方向的夹角不断地做出调整,以确保 ARKit 坐标系中 -Z 方向与我们真实世界的正北方向吻合。有了这个前提条件,真实世界位置坐标才能够正确地映射到虚拟世界中。
参考: