(一)Geospark入门

GeoSpark是基于Spark分布式的地理信息计算引擎,相比于传统的ArcGIS,GeoSpark可以提供更好性能的空间分析、查询服务。

准备工作

  1. Ubuntu18.04
  2. IDEA
  3. GeoSpark支持Java、Scala两种,本次开发语言选择Java。

JDK8安装

  1. 下载JDK8:https://download.oracle.com/otn/java/jdk/8u211-b12/478a62b7d4e34b78b671c754eaaf38ab/jdk-8u211-linux-x64.tar.gz (注:现在需要注册Oracle账户才允许下载)

  2. 下载解压后,复制到/opt下面,然后在~/.bashrc下面添加环境变量

    export JAVA_HOME=/opt/jdk1.8.0_172 #这里改成你的jdk目录名
    export PATH=${JAVA_HOME}/bin:$PATH
    export CLASSPAHT=.:/opt/jdk1.8.0_172/lib:/opt/jdk1.8.0_172/lib/dt.jar:/opt/jdk1.8.0_172/lib/tools.jar #在JDK8后应该是不需要在配置CLASSPATH,这里为了保险起见,还是加上了
    

Scala配置

  1. 下载Scala2.12.8:https://downloads.lightbend.com/scala/2.12.8/scala-2.12.8.tgz

  2. 下载解压后,复制到/opt下面,然后在~/.bashrc下面添加环境变量

    export SCALA_HOME=/opt/scala-2.12.8
    export PATH=${SCALA_HOME}/bin:$PATH
    
  3. 然后执行source ~/.bashrc

  4. 执行scala -version,如果出现有类似以下信息,则表示安装成功

    Scala code runner version 2.12.8 -- Copyright 2002-2018, LAMP/EPFL and Lightbend, Inc.
    

Spark单机配置

  1. 这里配置的是单机版Spark,不需要集群,不需要部署Hadoop等环境.

  2. 下载Spark2.4.3: https://archive.apache.org/dist/spark/spark-2.4.3/spark-2.4.3-bin-hadoop2.6.tgz

  3. 下载解压后,复制到用户目录下面/home/{user},然后在~/.bashrc下面添加环境变量:

    export SPARK_HOME=/home/hwang/spark-2.4.3-bin-hadoop2.6
    export SPARK_LOCAL_IP="127.0.0.1"
    export PATH=${SPARK_HOME}/bin:$PATH
    
  4. 然后执行spark-shell,如果出现以下信息则表示安装成功

    Spark context Web UI available at http://localhost:4040
    Spark context available as 'sc' (master = local[*], app id = local-1559006613213).
    Spark session available as 'spark'.
    Welcome to
          ____              __
         / __/__  ___ _____/ /__
        _\ \/ _ \/ _ `/ __/  '_/
       /___/ .__/\_,_/_/ /_/\_\   version 2.4.3
          /_/
             
    Using Scala version 2.11.12 (Java HotSpot(TM) 64-Bit Server VM, Java 1.8.0_172)
    scala> 
    

GeoSpark

  1. 打开IDEA,创建Maven新工程,修改pom.xml文件

       <properties>
            <scala.version>2.11</scala.version>
            <geospark.version>1.2.0</geospark.version>
            <spark.compatible.verison>2.3</spark.compatible.verison>
            <spark.version>2.4.3</spark.version>
            <hadoop.version>2.7.2</hadoop.version>
        </properties>
    
        <dependencies>
            <dependency>
                <groupId>org.scala-lang</groupId>
                <artifactId>scala-library</artifactId>
                <version>2.11.0</version>
            </dependency>
            <dependency>
                <groupId>org.datasyslab</groupId>
                <artifactId>geospark</artifactId>
                <version>${geospark.version}</version>
            </dependency>
            <dependency>
                <groupId>org.datasyslab</groupId>
                <artifactId>geospark-sql_${spark.compatible.verison}</artifactId>
                <version>${geospark.version}</version>
            </dependency>
            <dependency>
                <groupId>org.datasyslab</groupId>
                <artifactId>geospark-viz_${spark.compatible.verison}</artifactId>
                <version>${geospark.version}</version>
            </dependency>
            <dependency>
                <groupId>org.datasyslab</groupId>
                <artifactId>sernetcdf</artifactId>
                <version>0.1.0</version>
            </dependency>
            <dependency>
                <groupId>org.apache.spark</groupId>
                <artifactId>spark-core_${scala.version}</artifactId>
                <version>${spark.version}</version>
                <scope>${dependency.scope}</scope>
                <exclusions>
                    <exclusion>
                        <groupId>org.apache.hadoop</groupId>
                        <artifactId>*</artifactId>
                    </exclusion>
                </exclusions>
            </dependency>
            <dependency>
                <groupId>org.apache.spark</groupId>
                <artifactId>spark-sql_${scala.version}</artifactId>
                <version>${spark.version}</version>
                <scope>${dependency.scope}</scope>
            </dependency>
            <dependency>
                <groupId>org.apache.hadoop</groupId>
                <artifactId>hadoop-mapreduce-client-core</artifactId>
                <version>${hadoop.version}</version>
                <scope>${dependency.scope}</scope>
            </dependency>
            <dependency>
                <groupId>org.apache.hadoop</groupId>
                <artifactId>hadoop-common</artifactId>
                <version>${hadoop.version}</version>
                <scope>${dependency.scope}</scope>
            </dependency>
        </dependencies>
     <build>
            <plugins>
                <plugin>
                    <groupId>org.apache.maven.plugins</groupId>
                    <artifactId>maven-compiler-plugin</artifactId>
                    <version>3.8.0</version>
                    <configuration>
                        <source>1.8</source>
                        <target>1.8</target>
                    </configuration>
                </plugin>
            </plugins>
        </build>
    
  1. 我们从CSV中创建一个Spark的RDD,CSV内容如下:

    -88.331492,32.324142,hotel
    -88.175933,32.360763,gas
    -88.388954,32.357073,bar
    -88.221102,32.35078,restaurant
    

    然后我们初始化一个SparkContext,并调用GeoSpark的PointRDD,将我们的CSV导入。

     SparkConf conf = new SparkConf();
            conf.setAppName("GeoSpark01");
            conf.setMaster("local[*]");
            conf.set("spark.serializer", "org.apache.spark.serializer.KryoSerializer");
            conf.set("spark.kryo.registrator", "org.datasyslab.geospark.serde.GeoSparkKryoRegistrator");
            JavaSparkContext sc = new JavaSparkContext(conf);
    
            String pointRDDInputLocation = Learn01.class.getResource("checkin.csv").toString();
            Integer pointRDDOffset = 0; // 地理位置(经纬度)从第0列开始
            FileDataSplitter pointRDDSplitter = FileDataSplitter.CSV;
            Boolean carryOtherAttributes = true; // 第二列的属性(酒店名)
            PointRDD rdd = new PointRDD(sc, pointRDDInputLocation, pointRDDOffset, pointRDDSplitter, carryOtherAttributes);
    
  2. 坐标系转换

    1. GeoSpark采用EPGS标准坐标系,其坐标系也可参考EPSG官网:https://epsg.io/

    2. // 坐标系转换
      String sourceCrsCode = "epsg:4326";
      String targetCrsCode = "epsg:3857";
      rdd.CRSTransform(sourceCrsCode, targetCrsCode);
      
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 194,088评论 5 459
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 81,715评论 2 371
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 141,361评论 0 319
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 52,099评论 1 263
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 60,987评论 4 355
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 46,063评论 1 272
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 36,486评论 3 381
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 35,175评论 0 253
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 39,440评论 1 290
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 34,518评论 2 309
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 36,305评论 1 326
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 32,190评论 3 312
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 37,550评论 3 298
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 28,880评论 0 17
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 30,152评论 1 250
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 41,451评论 2 341
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 40,637评论 2 335

推荐阅读更多精彩内容