centos6.8部署hadoop

一、环境准备

1.1 配置DNS:

进入配置文件,添加主节点和从节点的IP映射关系

#vim /etc/hosts192.168.254.155 master192.168.254.156 slave1192.168.254.157 slave2

1.2 关闭防火墙

#service iptables stop    //关闭服务#chkconfig iptables off    //关闭开机自启动

1.3 配置免密登陆

1. 每个节点都首先要进入/root/.ssh目录下,生成密钥:

#ssh-keygen -t rsa //输入命令之后连续回车就行了

2. 在主节点上,将公钥拷贝到一个特定的文件中

[root@master.ssh]# cp id_rsa.pub authorized_key

3. 将每个从节点上生成的公钥复制到主节点上:

[root@slave1.ssh]# scp id_rsa.pub master:/root/.ssh/id_rsa_slave1.pub[root@slave2.ssh]# scp id_rsa.pub master:/root/.ssh/id_rsa_slave2.pub

4. 在主节点上合并从节点的公钥:

[root@master.ssh]# cat id_rsa_slave1.pub>>authorized_keys[root@master.ssh]# cat id_rsa_slave2.pub>>authorized_keys

配置完成后、在各个节点上进行ssh访问,若无需密码就能访问,则配置成功

1.4 配置JAVA环境

首先下载jdk,保存到指定目录下,设置环境变量

# vim  /etc/profileexport JAVA_HOME=/usr/java/jdk1.8.0_112export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jarexport PATH=$PATH:$JAVA_HOME/bin# source /etc/profile    //使配置生效

验证配置是否成功:

java -version

二、 部署Hadoop集群:

在各个节点上安装和配置Hadoop的过程都基本相同,因此可以在每个节点上安装好hadoop后,在主节点master上进行统一配置,然后通过scp命令将修改的配置文件拷贝到各个从节点上即可。

2.1 安装Hadoop

下载安装hadoop安装包;

#1. 下载并解压:#tar -zxvf hadoop-2.7.3.tar.gz#2. 配置环境变量:# vim /etc/profileexport HADOOP_HOME=/home/hadoop-2.7.3export PATH=$PATH:$HADOOP_HOME/binexport PATH=$PATH:$HADOOP_HOME/sbinexport HADOOP_CONF_DIR=${HADOOP_HOME}/etc/hadoop

2.2 修改配置文件:进入hadoop的配置文件目录$HADOOP_HOME/etc/hadoop,可以看到有许多配置文件,Hadoop集群配置主要是对以下几个文件的修改

core-site.xml

hdfs-site.xml

yarn-site.xml

mapred-site.xml

slave、hadoop-env.sh、yarn-env.sh

下面介绍文件的具体配置、按照实际情况修改配置信息;

(1) core-site.xml

<configuration><property><name>fs.defaultFS</name>#默认文件系统名称,用于指定host,post<value>hdfs://master:9000</value></property><property><name>hadoop.tmp.dir</name>#指定临时文件的存储路径<value>file:/home/hadoop/tmp</value></property><property><name>io.file.buffer.size</name>#用于指定序列文件的缓冲区大小<value>131702</value></property></configuration>

(2) hdfs-site.xml

<configuration><property><name>dfs.permissions.enabled</name><value>false</value></property><property><name>dfs.support.append</name><value>true</value></property><property><name>dfs.namenode.name.dir</name>#用于指定namenode存储路径<value>file:/home/michael/soft/hadoop/dfs/name</value></property><property><name>dfs.datanode.data.dir</name>#用于指定datenode存储路径<value>file:/home/michael/soft/hadoop/dfs/data</value></property><property><name>dfs.replication</name>#用于指定副本个数<value>3</value></property><property><name>dfs.namenode.secondary.http-address</name>#二主节点的端口<value>master:9001</value></property><property><name>dfs.webhdfs.enabled</name><value>true</value>#启用webHDFS检测namenode和datanode</property></configuration>

(3) yarn-site.xml

此目录下没有该文件,我们需要将mapred-site.xml.template 复制一份,改成此名。然后再修改:

<configuration><property><name>yarn.resourcemanager.hostname</name><value>master</value></property><property><name>yarn.nodemanager.aux-services</name><value>mapreduce_shuffle</value></property><property><name>yarn.nodemanager.resource.memory-mb</name><value>20480</value></property><property><name>yarn.scheduler.maximum-allocation-mb</name><value>10240</value></property><property><name>yarn.nodemanager.resource.cpu-vcores</name><value>5</value></property><property><name>yarn.nodemanager.vmem-check-enabled</name><value>false</value></property></configuration>

(4) mapred-site.xml

<configuration><property><name>mapreduce.framework.name</name><value>yarn</value></property></configuration>

(5) slaves

启动hadoop集群需要读取该文件,以确定从节点主机名,从而启动Datanode,Nodemanager等守护进程,因此需要在该文件中添加从节点主机名。

slave1

slave2

(6) hadoop-env.sh

修改如下内容:

export JAVA_HOME=/usr/java/jdk1.8.0_171

(7) yarn-env.sh

添加如下内容:

export JAVA_HOME=/usr/java/jdk1.8.0_171

到此,完成了主节点上所有配置,只需要将这些配置信息复制到各个节点:

# scp /home/hadoop-2.7.3/etc/hadoop/* slave1:/home/hadoop-2.7.3/etc/hadoop/# scp /home/hadoop-2.7.3/etc/hadoop/* slave2:/home/hadoop-2.7.3/etc/hadoop/

2.3 启动Hadoop

(1)第一次启动HDFS需要初始化,在节点上执行:# cd /home/hadoop-2.7.3  # ./bin/hadoop namenode -format(2) 启动HDFS:# ./sbin/start-dfs.sh  //启动后,访问http://master:50070/ 可以看到HDFS WEB 界面(3)启动YARN:#。/sbin/start-yarn.sh    //成功启动后,访问http://master:8088/即可看到YARN Web界面。

这里也可以直接执行下面的命令一键启动,但第一次启动不建议这样做:

# start-all.sh

到此、Hadoop集群环境已经搭建好了。

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 194,390评论 5 459
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 81,821评论 2 371
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 141,632评论 0 319
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 52,170评论 1 263
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 61,033评论 4 355
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 46,098评论 1 272
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 36,511评论 3 381
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 35,204评论 0 253
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 39,479评论 1 290
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 34,572评论 2 309
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 36,341评论 1 326
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 32,213评论 3 312
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 37,576评论 3 298
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 28,893评论 0 17
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 30,171评论 1 250
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 41,486评论 2 341
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 40,676评论 2 335

推荐阅读更多精彩内容