Hadoop集群环境搭建(三台)

本文讲述的是如何在CentOS 7中搭建Hadoop 2.7.3集群环境,并运行一个wordcount例子

主要内容:

  • 1.集群规划
  • 2.创建用户配置免登录
  • 3.安装JDK
  • 4.安装Hadoop集群
  • 5.运行WordCount

相关文章:
1.VM12安装配置CentOS7
2.Hadoop集群环境搭建(三台)
3.Hadoop之本地运行WordCount
4.Hadoop之集群运行WordCount
5.Log4j2+Flume+Hdfs日志采集

1.集群规划

用户 主机名 ip 安装的软件 进程
hadoop hadoop1 192.168.2.111 jdk、hadoop namenode、ressourcemanager
hadoop hadoop2 192.168.2.112 jdk、hadoop datanode、nodemanager、secondnamenode
hadoop hadoop3 192.168.2.113 jdk、hadoop datanade、nodemanager

首先我们有三台IP为以上IP的虚拟机,并改好主机名,如果你还没有虚拟主机,请参考:VM12安装配置CentOS7 准备好三台虚拟主机。

2.创建用户配置免登录

给三台主机都创建一个hadoop用户用于运行hadoop集群

2.1.创建专有的用户(root用户)

创建用户和组(每台主机都需要)

#先创建组cloud
groupadd cloud
#创建用户并加入组cloud
useradd -g cloud hadoop
#修改用户hadoop的密码
passwd hadoop

将hadoop用户加到sodu列表

#查看/etc/sudoers的权限
ls -l /etc/sudoers

可以看的是只读权限,如果我们要修改就必须先改变该文件的权限

#修改权限
chmod 777 /etc/sudoers

编辑/etc/sudoers加入hadoop用户

vim /etc/sudoers

找到root用户,并加入hadoop用户如下

#还原权限
chmod 440 /etc/sudoers

至此我们成功建立的hadoop用户,并给hadoop用户授予了root权限(注意三台主机都需要执行此操作)

2.2.建立主机名映射(root用户)

将本机的主机名和IP建立映射关系(三台主机都需要)

vi /etc/hosts

加入如下映射关系:

192.168.2.111 hadoop1
192.168.2.112 hadoop2
192.168.2.113 hadoop3

2.3.配置hadoop免密码登录(hadoop用户)

切换hadoop用户(namenode进程所在的主机这里为hadoop1)

su hadoop

生成私钥公钥

cd ~
ssh-keygen -t rsa

接下来回车就ok,执行完会在当前文件夹生成.ssh文件夹

ls -la

将公钥拷贝到其它机器上,实现免密码登录

ssh-copy-id hadoop1
ssh-copy-id hadoop2
ssh-copy-id hadoop3

其间输入yes和主机的密码,回车之后就可以测试免密码登录了

ssh hadoop2

可以看到不用输密码就可以登录主机hadoop2了

3.安装JDK

给三台主机安装jdk,这里只需要在hadoop1上安装jdk,然后将软件和环境变量拷贝到其它主机即可

3.1.创建文件夹(hadoop用户)

在/opt/下创建soft-install文件夹来存放安装的软件,创建soft来安装软件

sudo mkdir soft-install
sudo mkdir soft

并将文件夹 /opt 权限赋值给 hadoop用户

sudo chown -R hadoop:cloud /opt/*
image.png

3.2.上传软件到soft-install并安装

image.png
tar -zxvf jdk-8u91-linux-x64.tar.gz -C /opt/soft/

修改环境变量

# 修改配置文件
sudo vi /etc/profile
# 在最后下添加

export JAVA_HOME=/opt/soft/jdk1.8.0_91
export PATH=$JAVA_HOME/bin:$PATH
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

# 刷新配置文件
source /etc/profile

测试java是否安装成功

javac

出现以上信息,说明安装成功

将安装成功的jdk拷贝到其它主机

scp -r /opt/soft/jdk1.8.0_91 hadoop2:/opt/soft
scp -r /etc/soft/jdk1.8.0_91 hadoop3:/opt/soft

复制/etc/profile (记得要三台主机刷新环境变量)
···
sudo scp /etc/profile hadoop2:/etc/
sudo scp /etc/profile hadoop3:/etc/
···

4.安装Hadoop(hadoop用户)

解压

tar -zxvf hadoop-2.7.3.tar.gz -C /opt/soft/

删除docs

cd /opt/soft/hadoop-2.7.3/share
rm -rf doc/

修改环境变量

# 修改配置文件
sudo vi /etc/profile
# 在最后下添加

export HADOOP_HOME=/opt/soft/hadoop-2.7.3
export PATH=$PATH:$HADOOP_HOME/bin

# 刷新配置文件
source /etc/profile

修改配置文件
这些配置文件全部位于 /opt/soft/hadoop-2.7.3/etc/hadoop 文件夹下

hadoop-env.sh

export JAVA_HOME=/opt/soft/jdk1.8.0_91

core-site.xml

<configuration>
    <!-- 指定HDFS老大(namenode)的通信地址 -->
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://hadoop1:9000</value>
    </property>
    <!-- 指定hadoop运行时产生文件的存储路径 -->
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/opt/soft/hadoop-2.7.3/tmp</value>
    </property>
</configuration>

hdfs-site.xml

<configuration>

    <!-- 设置namenode的http通讯地址 -->
    <property>
        <name>dfs.namenode.http-address</name>
        <value>hadoop1:50070</value>
    </property>

    <!-- 设置secondarynamenode的http通讯地址 -->
    <property>
        <name>dfs.namenode.secondary.http-address</name>
        <value>hadoop2:50090</value>
    </property>

    <!-- 设置namenode存放的路径 -->
    <property>
        <name>dfs.namenode.name.dir</name>
        <value>/opt/soft/hadoop-2.7.3/name</value>
    </property>

    <!-- 设置hdfs副本数量 -->
    <property>
        <name>dfs.replication</name>
        <value>2</value>
    </property>
    <!-- 设置datanode存放的路径 -->
    <property>
        <name>dfs.datanode.data.dir</name>
        <value>/opt/soft/hadoop-2.7.3/data</value>
    </property>
</configuration>

mapred-site.xml
必须先

mv mapred-site.xml.template mapred-site.xml
<configuration>
    <!-- 通知框架MR使用YARN -->
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
</configuration>

yarn-site.xml

<configuration>
    <!-- 设置 resourcemanager 在哪个节点-->
    <property>
        <name>yarn.resourcemanager.hostname</name>
        <value>hadoop1</value>
    </property>

    <!-- reducer取数据的方式是mapreduce_shuffle -->
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>

    <property>
         <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
         <value>org.apache.hadoop.mapred.ShuffleHandler</value>
    </property>
</configuration>

masters
新建一个masters的文件,这里指定的是secondary namenode 的主机

hadoop2

slaves

hadoop2
hadoop3

创建文件夹:

cd /opt/soft/hadoop-2.7.3/
mkdir tmp name data

复制/opt/soft (注意hadoop2、hadoop3上soft目录的权限为hadoop:cloud一致)

scp -r /opt/soft/hadoop-2.7.3 hadoop2:/opt/soft
scp -r /opt/soft/hadoop-2.7.3 hadoop3:/opt/soft

复制/etc/profile (记得要三台主机刷新环境变量)

sudo scp /etc/profile hadoop2:/etc/
sudo scp /etc/profile hadoop3:/etc/

五、运行WordCount

1、启动

第一次启动得格式化,用hadoop用户在hadoop1主机执行命令(没报错就下一步)

./bin/hdfs namenode -format

启动dfs

./sbin/start-dfs.sh

启动yarn

./sbin/start-yarn.sh

查看启动的进程

可以看到各主机上的进程和我们规划的一样,说明安装成功。

浏览器测试hdfs

http://192.168.2.111:50070

浏览器测试yarn

http://192.168.2.111:8088/cluster/nodes

2、运行wordcount

创建words.txt文件

hello world
hello java
hello python
java home

上传至hdfs

bin/hadoop fs -put words.txt /

查看是否上传成功

bin/hadoop fs -ls /

也可以通过浏览器查看

运行wordcount

./bin/hadoop jar /opt/soft/hadoop-2.7.3/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.3.jar  wordcount hdfs://hadoop1:9000/words.txt hdfs://hadoop1:9000/out

查看运行结果

bin/hadoop fs -cat /out/part-r-00000

当然也可以通过web界面下载查看,需要在windows的C:\Windows\System32\drivers\etc\hosts加入hadoop主机映射关系

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 194,319评论 5 459
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 81,801评论 2 371
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 141,567评论 0 319
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 52,156评论 1 263
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 61,019评论 4 355
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 46,090评论 1 272
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 36,500评论 3 381
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 35,192评论 0 253
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 39,474评论 1 290
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 34,566评论 2 309
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 36,338评论 1 326
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 32,212评论 3 312
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 37,572评论 3 298
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 28,890评论 0 17
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 30,169评论 1 250
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 41,478评论 2 341
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 40,661评论 2 335

推荐阅读更多精彩内容