hadoop集群环境搭建之完全分布式集群环境搭建(二)

hadoop集群环境搭建之完全分布式集群环境搭建(二)

我们在上一篇 hadoop集群环境搭建之伪分布式集群环境搭建(一)中介绍了hadoop伪分布式集群环境的搭建,下面我们介绍下完全分布式集群环境搭建。

完全分布式集群是指在多台机器上部署hadoop的服务。下面我以三台机器(server1,server2,server3)为例。搭建一个完全分布式的集群环境。

1、Linux机器环境配置

首先在使用VMware虚拟机创建一台虚拟机server1。配置好虚拟机的基本环境。

1.1 修改主机名

切换成root用户

su root

编辑/etc/sysconfig/network文件

vim /etc/sysconfig/network

NETWORKING=yes
HOSTNAME=server1    # 主机名

1.2 修改ip

编辑/etc/sysconfig/network-scripts/ifcfg-eno16777736文件

vim /etc/sysconfig/network-scripts/ifcfg-eno16777736

修改内容如下:

TYPE=Ethernet
DEFROUTE=no # 设置no
BOOTPROTO=none  # 设置none
IPV4_FAILURE_FATAL=no
IPV6INIT=yes
IPV6_AUTOCONF=yes
IPV6_DEFROUTE=yes
IPV6_FAILURE_FATAL=no
NAME=eno16777736
UUID=2ce59a48-ae92-483b-a73c-7844147b6ba0
HWADDR=00:0C:29:21:8D:08
PREFIX0=24  
ONBOOT=yes  # 开始机自动网络
IPADDR=192.168.108.99   # 设置IP
NETMASK=255.255.255.0   #  子网掩码
GATEWAY0=192.168.108.2 # 设置网关

1.3 修改主机名和ip映射关系

编辑/etc/hosts文件

# 编辑/etc/hosts文件
vim /etc/hosts

192.168.108.11 server1

编辑/etc/hostname文件

vim /etc/hostname

zhang

1.4 关闭防火墙

chkconfig iptables off

1.5 给hadoop用户添加root操作权限

修改/etc/sudoers权限

chmod u+w /etc/sudoers

编辑/etc/sudoers文件,给hadoop用户添加root操作权限

# hadoop 用户名
hadoop ALL=(root) NOPASSWD:ALL

1.6 关闭linux图形化界面

centos 7以下版本:

vim /etc/inittab

id:5:initdefault:
改为
id:3:initdefault:

centos 7.x版本:

  • 删除已经存在的符号链接
rm /etc/systemd/system/default.target
  • 默认级别转换为3
# 默认级别转换为3(文本模式)
ln -sf /lib/systemd/system/multi-user.target /etc/systemd/system/default.target

# 默认级别转换为5(图形模式)
ln -sf /lib/systemd/system/graphical.target /etc/systemd/system/default.target
  • 重启
reboot

如果需要切换图形界面执行命令:startx

2、java环境搭建

2.1 删除自带的jdk

  • 执行java -version查看java环境,如果没有则可以忽略

  • 查看自带的jdk,rpm -qa | grep jdk

  • 删除自带的jdk,yum -y remove java-1.7.0-openjdk-xxxx

2.2 上传jdk压缩包

通过Windows客户端,上传jdk压缩包。(使用git命令窗口)

scp D:/dsoftmanager/jdk-8u151-linux-x64.tar.gz root@192.168.108.11:/home/hadoop

2.3 解压jdk,配置环境变量

  • 创建/java目录,sudo mkdir /java

  • 将上传的jdk压缩包复制到/java目录

    sudo cp /home/hadoop/jdk-8u151-linux-x64.tar.gz /java
    
  • 解压压缩包

    # 切换到/java目录
    cd /java
    
    # 解压jdk
    sudo tar -zxvf jdk-8u151-linux-x64.tar.gz
    
  • 配置java环境变量

    # 编辑/etc/profile文件
    vim /etc/profile
    
    # java环境变量
    JAVA_HOME=/java/jdk1.8.0_151
    PATH=$PATH:$JAVA_HOME/bin:/usr/bin:/usr/sbin:/bin:/sbin:/usr/X11R6/bin
    CLASSPATH=.:$JAVA_HOME/lib/tools.jar:$JAVA_HOME/lib/dt.jar
    export  JAVA_HOME  PATH  CLASSPATH
    
  • 重启后,测试java -version,出现如下,表示成功

java version "1.8.0_151"
Java(TM) SE Runtime Environment (build 1.8.0_151-b12)
Java HotSpot(TM) 64-Bit Server VM (build 25.151-b12, mixed mode)

3、克隆机器修改Linux基本的配置

3.1 克隆机器server2,server3

关于VMware虚拟机克隆,这里不截图展示,在克隆时,选择完全克隆。

3.2 修改server2和server3的配置

需要修改server2和server3的如下文件:

  • 3.2.1 修改/etc/sysconfig/network
vim /etc/sysconfig/network

# server2机器HOSTNAME改为server2,server3机器HOSTNAME改为server3
HOSTNAME=server2
  • 3.2.2 修改/etc/sysconfig/network-scripts/ifcfg-eno16777736
vim /etc/sysconfig/network-scripts/ifcfg-eno16777736

# server2机器将ip改为192.168.108.12,server3的ip改为192.168.108.13
IPADDR=192.168.108.12

在克隆时,会把网卡信息也一起克隆,所以需要修改网卡的mac值。

修改/etc/sysconfig/network--scripts/ifcfg-eno16777736中的HWADDR的mac值。mac值是每台机器唯一的。

mac值获取,如图:

image

具体参考:Linux虚拟机复制后eth0不能启动解决方法

  • 3.2.3 修改/etc/hostname
# server2机器改为server2,server3机器改为server3
server2
  • 3.2.4 修改/etc/hosts

将server1,server2,server3的/etc/hosts都改为

192.168.108.11 server1
192.168.108.12 server2
192.168.108.13 server3
  • 3.2.5 重启后相互ping一下,能ping通就没问题
ping 192.168.108.11
ping 192.168.108.12
ping 192.168.108.13

4、SSH无秘登录

以下操作,每台机器都需要执行

4.1 在server1,server2,server3分别生成公钥,私钥

执行ssh-keygen -t rsa命令,一路回车就行

ssh-keygen -t rsa
image

4.2 将生成好的公钥,发送到其他的主机上

ssh-copy-id server1
ssh-copy-id server2
ssh-copy-id server3
image

4.3 相互以ssh 主机名进行切换

ssh server1

ssh server2

ssh server3

如果不需要输入密码,表示无秘登入成功


5、hadoop的压缩包解压及环境变量配置

hadoop的完全分布式集群,先server1机器将hadoop的环境配置好,通过scp命令同步到server2server3机器上。

5.1 上传hadoop的压缩包

scp d:/dsoftmanager/hadoop-2.7.5.tar.gz hadoop@192.168.108.11:/home/hadoop

5.2 压缩hadoop包

  • 5.2.1 创建/hadoop目录
sudo mkdir /hadoop
  • 5.2.2 将hadoop压缩包复制到/hadoop目录
sudo cp /home/hadoop/hadoop-2.7.5.tar.gz /hadoop
  • 5.2.3 解压hadoop包
# 进入/hadoop目录
cd /hadoop

# 解压hadoop包
sudo tar -zxvf hadoop-2.7.5.tar.gz

5.3 配置hadoop环境变量

打开/etc/profile文件,配置hadoop环境变量

sudo vim /etc/profile


export HADOOP_HOME=/hadoop/hadoop-2.7.5
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

5.4 重启,测试hadoop环境变量

echo ${HADOOP_HOME}

输出:/hadoop/hadoop2.7.5

6、hadoop的服务基本环境配置

在配置环境之前,我们需要对server1,server2,server3进行hadoop服务分配。

分配如下:

server1 server2 server3
namenode --- ---
datanode datanode datanode
--- secondarynode ---
resourcemanager --- ---
nodemanager nodemanager nodemanager
--- --- historyserver

6.1 hadoop开发目录权限设置

把当前目录切换到根目录/。执行ls -l目录。

image

我们可以看到hadoop目录是root用户权限。我们需要将权限更改为hadoop用户。

# 更改/hadoop目录权限
sudo chown -R hadoop:hadoop /hadoop

6.2 hadoop-env.sh文件配置

修改hadoop-env.sh的JAVA_HOME环境

# 将目录切换到${HADOOP_HOME}目录下
cd ${HADOOP_HOME}

# 打开etc/hadoop/hadoop-env.sh文件
sudo vim etc/hadoop/hadoop-env.sh

# 修改JAVA_HOME路径
JAVA_HOME=/java/jdk1.8.0_151

6.3 core-site.xml文件配置

在${HADOOP_HOME}目录下创建data/tmp目录

# 创建data目录
mkdir data

# 切换到data目录
cd data

# 创建tmp目录
mkdir tmp

修改core-site.xml文件

# 进入${HADOOP_HOME}
cd ${HADOOP_HOME}

# 打开 etc/hadoop/core-site.xml文件
sudo vim etc/hadoop/core-site.xml

修改内容:

<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://server1:8020</value>
    </property>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/hadoop/hadoop-2.7.5/data/tmp</value>
    </property>
</configuration>

6.4 hdfs-site.xml文件配置

修改 etc/hadoop/hdfs-site.xml文件

sudo vim etc/hadoop/hdfs-site.xml

修改内容:

<configuration>
    <!-- 指定HDFS副本的数量 -->
    <property>
        <name>dfs.replication</name>
        <value>3</value>
    </property>
    <property>
        <!--指定secondaryNameNode的地址和端口号-->
        <name>dfs.namenode.secondary.http-address</name>
        <value>server2:50090</value>
    </property>
</configuration>

6.5 配置slaves

打开slaves文件

sudo vim etc/hadoop/slaves

修改内容如下:

server1
server2
server3

6.5 yarn-site.xml文件配置

打开yarn-site.xml文件

sudo vim etc/hadoop/yarn-site.xml

修改内容:

<configuration>
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
    <property>
        <!--resourcemanager服务指定地址-->
        <name>yarn.resourcemanager.hostname</name>
        <value>server1</value>
    </property>
    <property>
        <!--启动日志聚集功能-->
        <name>yarn.log-aggregation-enable</name>
        <value>true</value>
    </property>
    <property>
        <!--日志保存时间-->
        <name>yarn.log-aggregation.retain-seconds</name>
        <value>106800</value>
    </property>
</configuration>

6.6 mapred-site.xml文件配置

从mapred-site.xml.template复制一个mapred-site.xml

sudo cp etc/hadoop/mapred-site.xml.template etc/hadoop/mapred-site.xml

修改mapred-site.xml文件

sudo vim etc/hadoop/mapred-site.xml

修改内容:

<configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
    <property>
        <!--historyserver地址为server3-->
        <name>mapreduce.jobhistory.address</name>
        <value>server3:10020</value>
    </property>
    <property>
        <name>mapreduce.jobhistory.webapp.address</name>
        <value>server3:19888</value>
    </property>
</configuration>

7 将/hadoop目录通过scp命令传输到server2和server3机器

7.1 分别在server2和server3机器上创建一个/hadoop目录

sudo mkdir /hadoop

7.2 修改/hadoop用户权限

sudo chown -R hadoop:hadoop /hadoop

7.3 scp命令将server1的/hadoop/hadoop2.7.5目录发送到server2和server3的/hadoop目录

# 将server1的/hadoop/hadoop2.7.5通过scp发送到server2的/hadoop目录
scp /hadoop/hadoop2.7.5 server2:/hadoop

scp /hadoop/hadoop2.7.5 server3:/hadoop

7.4 配置server2和server3的hadoop环境变量

server2和server3的hadoop的环境配置

sudo vim /etc/profile

export HADOOP_HOME=/hadoop/hadoop-2.7.5
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

8、格式化namenode

bin/hdfs namenode -format

9、hadoop的服务启动

9.1 server1启动dfs服务

sbin/start-dfs.sh

9.2 server1启动yarn服务

sbin/start-yarn.sh

9.3 启动server3的historyserver

sbin/mr-jobhistory-daemon.sh start historyserver

9、hadoop的wordcount案例测试

9.1 创建一个wc.input文件

在/home/hadoop目录下,创建一个wc.input文件

vim /home/hadoop/wc.input

9.2 在HDFS创建输入目录/wordcounttest/input

bin/hdfs dfs -mkdir -p /wordcounttest/input

9.3 将wc.inpt文件上传到hdfs中

bin/hdfs dfs -put /home/hadoop/wc.input /wordcounttest/input

9.4 运行wordcount的demo

bin/yarn jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.5.jar wordcount /wordcounttest/input /wordcounttest/output

image

9.5 运行结果查看

  • 9.5.1 查看输出目录
bin/hdfs dfs -ls /wordcounttest/output/

结果:

Found 2 items
-rw-r--r--   3 hadoop supergroup          0 2018-01-31 06:33 /wordcounttest/output/_SUCCESS
-rw-r--r--   3 hadoop supergroup        140 2018-01-31 06:33 /wordcounttest/output/part-r-00000
  • 9.5.2 查看输出结果
bin/hdfs dfs -cat /wordcounttest/output/part-r-00000
image

10、关闭服务

10.1 关闭dfs服务

sbin/stop-dfs.sh

10.2关闭yarn服务

sbin/stop-yarn.sh

10.3 关闭historyserver服务

sbin/mr-jobhistory-daemon.sh stop historyserver

10.4 关闭所有服务

sbin/stop-all.sh
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 202,723评论 5 476
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,080评论 2 379
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 149,604评论 0 335
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,440评论 1 273
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,431评论 5 364
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,499评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,893评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,541评论 0 256
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,751评论 1 296
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,547评论 2 319
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,619评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,320评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,890评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,896评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,137评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,796评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,335评论 2 342

推荐阅读更多精彩内容