这篇的起因其实是我一个胖友做的项目,让我对这段有了兴趣,于是找WWDC补一下~
由于小姐姐的电脑还是11.4于是没有办法演示,只能表达一下workflow是啥,所以这篇很短,反正也没人看,不担心被吐槽~ 最近也不知道为啥感觉一直涨僵尸粉...可能是我真的太水了...
Object Capture
首先需要先给这个物体多角度的拍照,可以用iPhone或者iPad,确保每个角度都有cover。
然后需要用一个16G的电脑并且有 RealityKit 的来装上面的程序,他可以帮你把照片转换成3D模型。
输出可以有多种格式,并且你可以定义你要的quality,quality越高,处理时长和所需内存就越多。
Usage
setup就是创建一个session(PhotogrammetrySession
),并且指向你的照片组;process是指生成一个3D模型。
session的input可以是一组图片:
这个就是异步处理message,这些消息会包括状态变化以及处理进度等。最后结果会是一个URL。
我们一般都会去请求process的结果为model file。quality也会有四种选择Preview
/Reduces
/Medium
/Full
/Raw
。
如何同时输出两种quality的处理结果:
这里会觉得有点奇怪,就是这里
process
的output和之前set up
的message的处理的差异是什么,那里也会有一个outputStream吖,那个URL是干什么的呢,输出又是什么呢?
在请求最后的结果model之前,先请求preview model,让他尽快生成,因为preview其实是最快的,然后把他显示出来~
你可以用转盘转物体,然后固定手机拍照这样最方便哦。