本文纯属个人见解,可能是正经的胡扯。
在最近的工作中突然冒出来几个使用倾斜摄影模型的项目,数据量都是TB级的,面对这样大的数据,传统的处理方式已经不太管用了,下面我们就来掰扯下这么大的数据量到底怎么处理。
1、数据组织
大数据的情况下,建议采用多层文件结构的方式组织数据,将数据进行合理的分块,方便后续处理的多机并行处理,提高处理效率。那什么是多层文件结构,如下图:
数据这样组织的前提需要所有模型的中心点坐标相同,如果不同需要对中心点进行修改,当前修改模型中心点只支持投影坐标系。
2、分块数据处理
倾斜摄影模型的处理主要包括两部分:合并根节点和转s3m。
合并根节点层级通常设置1或者2,不建议设置值过大,设置过大的情况下会导致单文件过大,最终应用的时候效率不高,适得其反的效果。
3、合并配置文件
数据是分块处理的,如果分别每块作为一个图层进行加载,会导致图层数量非常多,反而加载性能不高,所以需要对图层进行合并。
当前还只能手动对scp文件进行合并,在块的最外层新创建一个scp,然后手动将scp中的文件路径节点拷贝到新scp中,在这个过程中需要注意保证相对路径正确。
4、大面积倾斜摄影模型的管理
在现在的项目中,城市级别的倾斜摄影模型在逐渐应用,对倾斜摄影模型的管理就成为一个亟待解决的问题,倾斜摄影模型如何快速入库、标准化图幅管理、数据快速更新成为一个研究的课题。我这里只抛砖引玉,欢迎讨论。