单机部署Spark-1.4.0总结(Hadoop-2.6.0采用伪分布式)【已测】

    $ tar -zxf scala-2.10.5.tgz
    $ sudo mv scala-2.10.5 /usr/local

配置环境变量:

export SCALA_HOME=/usr/local/scala-2.11.4
export PATH=$SCALA_HOME/bin:$PATH
更新启动环境变量
source /etc/profile
测试scala安装是否成功
$ scala -version

  • 【亲测】安装Hadoop(需要修改Hadoop的情况下,手动编译)
    【安装Hadoop的参考网址】http://qindongliang.iteye.com/blog/2222145

    • 安装依赖
      sudo yum install -y autoconf automake libtool git gcc gcc-c++ make cmake openssl-devel,ncurses-devel bzip2-devel

    • 安装Maven3.0+
      【下载网址】
      http://archive.apache.org/dist/maven/maven-3/3.0.5/binaries/

      • 解压
        tar -xvf apache-maven-3.0.5-bin.tar.gz
      • 移动文件
        mv -rf apache-maven-3.0.5 /usr/local/
      • 配置环境变量
      MAVEN_HOME=/usr/local/apache-maven-3.0.5
      export MAVEN_HOME
      export PATH=${PATH}:${MAVEN_HOME}/bin
      
      
      • 使生效
        source /etc/profile
      • 检查是否安装成功 mvn -v
    • 安装ant1.8+
      【下载网址】http://archive.apache.org/dist/ant/binaries/

      • 环境变量
      export ANT_HOME=/usr/local/apache-ant-1.8.4
      export PATH=$ANT_HOME/bin:$PATH
      
      
      • 测试
        ant -version
    • 安装 protobuf-2.5.0.tar.gz

      • 解压
        tar xvf protobuf-2.5.0.tar.gz
      • 安装
        cd protobuf-2.5.0
        ./configure --prefix=/usr/local/protobuf
        make
        nake install
      • 环境变量
      export PATH=$PATH:/usr/local/protobuf/bin
      export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/usr/local/protobuf/lib
      
      
      • 测试
        protoc --version
        如果输出libprotoc 2.5.0表示安装成功。
    • 安装snappy1.1.0.tar.gz(可选选项,如果需要编译完的Hadoop支持Snappy压缩,需要此步骤)

      • 安装
        ./configure --prefix=/usr/local/snappy #指定的一个安装目录
        make
        make install
    • 安装hadoop-snappy

      • git下载地址
        git clone https://github.com/electrum/hadoop-snappy.git

      • 打包
        下载完成后
        cd hadoop-snappy
        执行maven打包命令
        mvn package -Dsnappy.prefix=/home/search/snappy

      • 验证

        [图片上传失败...(image-6f2ee7-1586623573354)]

        这个目录就是编译后的snappy的本地库,在
        hadoop-snappy/target/hadoop-snappy-0.0.1-SNAPSHOT-tar/hadoop-snappy-0.0.1-SNAPSHOT/lib目录下,有个hadoop-snappy-0.0.1-SNAPSHOT.jar,在hadoop编译后,需要拷贝到$HADOOP_HOME/lib目录下。
         【备注】整个过程中使用到的包都放在/root/下面。

    • 安装Hadoop

      • 安装(下载hadoop-2.6.0-src.tar.gz是hadoop的源码)
        【下载网址】
        http://mirror.bit.edu.cn/apache/hadoop/common/hadoop-2.6.0/
        【也可以直接获取】wget http://archive-primary.cloudera.com/cdh5/cdh/5/hadoop-2.6.0-cdh5.4.1-src.tar.gz
      • 解压
        tar -zxvf hadoop-2.6.0-cdh5.4.1-src.tar.gz
      • 解压后进入根目录,执行下面这个编译命令,就能把snappy库绑定到hadoop的本地库里面,这样就可以在所有的机器上跑了
        mvn clean package -DskipTests -Pdist,native -Dtar -Dsnappy.lib=(hadoop-snappy里面编译后的库地址) -Dbundle.snappy
         中间会报一些异常,无须关心,如果报异常退出了,就继续执行上面这个命令,直到成功为止,一般速度会跟你的网速有关系,大概40分钟左右,最后会编译成功。
  • 【最终选择】安装Hadoop(无需修改Hadoop时直接下载编译好的Hadoop文件)

单机部署Hadoop(伪分布式)

  • Hadoop 的配置文件位于 /usr/local/hadoop/etc/hadoop/ 中(很多的xml文件),伪分布式需要修改2个配置文件 core-site.xml 和 hdfs-site.xml。
  • 修改配置文件 core-site.xml (vim /usr/local/hadoop/etc/hadoop/core-site.xml)
    将当中的
<configuration>
</configuration>

修改为下面配置:

<configuration>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>file:/usr/local/hadoop/tmp</value>
        <description>Abase for other temporary directories.</description>
    </property>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://localhost:9000</value>
    </property>
</configuration>

  • 修改配置文件 hdfs-site.xml(同理)
<configuration>
<property>
    <name>dfs.replication</name>
    <value>1</value>
</property>
<property>
    <name>dfs.namenode.name.dir</name>
    <value>file:/usr/local/hadoop/tmp/dfs/name</value>
</property>
<property>
    <name>dfs.datanode.data.dir</name>
    <value>file:/usr/local/hadoop/tmp/dfs/data</value>
</property>
</configuration>

【注意】不说明的话都是目录的起始位置都是:hadoop/

  • 配置完成后,执行 namenode 的格式化:
    bin/hdfs namenode -format
    成功的话,会看到successfully formatted的提示,且输出信息的倒数第5行的提示如下,Exitting with status 0 表示成功,若为 Exitting with status 1 则是出错。若出错,可试着加上 sudo, 既 sudo bin/hdfs namenode -format 再试试看。
  • 开启NameNode、DataNode守护进程
    sbin/start-dfs.sh
    【注意】若你使用的是 Hadoop 2.4.1 64位,则此时可能会出现一连串的warn提示,如 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable 这个提示,这些warn提示可以忽略,不会影响正常使用。
  • 查看进程
    输入jps即可
    成功启动则会列出如下进程: NameNode、DataNode和SecondaryNameNode
  • Hadoop-webUI
    在浏览器中输入http://localhost:50070(localhost或者是服务器ip)
    【注意】如无法访问,先检查防火墙是否是关闭状态(应当是关闭状态)。
  • 注意(配置过程中遇到)
    在这一步以及后面启动 Hadoop 时若提示 Error: JAVA_HOME is not set and could not be found. 的错误,则需要在文件 hadoop/etc/hadoop/hadoop-env.sh 中设置 JAVA_HOME 变量,即找到 export JAVA_HOME=${JAVA_HOME} 这一行,改为 export JAVA_HOME=/usr/lib/jvm/java-7-openjdk-amd64 (就是之前设置的JAVA_HOME位置),再重新尝试即可。
  • 关闭NameNode、DataNode守护进程
    sbin/stop-dfs.sh

单机部署Spark

  • 下载
    wget http://archive.apache.org/dist/spark/spark-1.4.0/spark-1.4.0-bin-hadoop2.6.tgz
  • 解压并修改名字为spark
  • 环境变量
export SPARK_HOME=/usr/local/spark
export PATH=$PATH:$SPARK_HOME/bin

  • 配置Spark环境变量
    cd $SPARK_HOME/conf
    cp spark-env.sh.template spark-env.sh
    vim spark-env.sh
    添加如下代码:
export JAVA_HOME=/usr/java/latest
export HADOOP_HOME=/usr/local/hadoop
export HADOOP_CONF_DIR=/usr/local/hadoop/etc/hadoop
export SCALA_HOME=/usr/local/scala-2.10.5
export SPARK_HOME=/usr/local/spark
export SPARK_MASTER_IP=127.0.0.1
export SPARK_MASTER_PORT=7077
export SPARK_MASTER_WEBUI_PORT=8099
export SPARK_WORKER_CORES=3
export SPARK_WORKER_INSTANCES=1
export SPARK_WORKER_MEMORY=10G
export SPARK_WORKER_WEBUI_PORT=8081
export SPARK_EXECUTOR_CORES=1
export SPARK_EXECUTOR_MEMORY=1G
#export SPARK_CLASSPATH=/opt/hadoop-lzo/current/hadoop-lzo.jar
#export SPARK_CLASSPATH=$SPARK_CLASSPATH:$CLASSPATH
export LD_LIBRARY_PATH=${LD_LIBRARY_PATH}:$HADOOP_HOME/lib/native

  • 配置Slave
    cp slaves.template slaves
    vim slaves
    添加以下代码(默认就是localhost):
localhost

  • 因为是单机ssh免登陆不再赘述

  • 启动Spark Master
    目录:cd $SPARK_HOME/sbin/
    ./start-master.sh

  • 启动Spark Slave
    目录:cd $SPARK_HOME/sbin/
    ./start-slaves.sh(注意是slaves)

  • 启动Spark-shell(application)
    ./spark-shell --master spark://127.0.0.1:7077

  • Spark-webUI
    http://localhost:8099(localhost或者是服务器ip)
    如下所示:

    [图片上传失败...(image-967660-1586623573358)]

  • 关闭master和slave
    目录:cd $SPARK_HOME/sbin/
    ./stop-master.sh
    ./stop-slaves.sh

作者:popsheng
链接:https://www.jianshu.com/p/d62cc79ef64b
来源:简书
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,271评论 5 476
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,275评论 2 380
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,151评论 0 336
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,550评论 1 273
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,553评论 5 365
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,559评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,924评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,580评论 0 257
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,826评论 1 297
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,578评论 2 320
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,661评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,363评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,940评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,926评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,156评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,872评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,391评论 2 342

推荐阅读更多精彩内容