06.Hadoop:YARN环境搭建

本节主要内容:

YARN环境搭建

1.系统环境:

OS:CentOS Linux release 7.5.1804 (Core)

CPU:2核心

Memory:1GB

运行用户:root

JDK版本:1.8.0_252

Hadoop版本:cdh5.16.2

2.集群各节点角色规划为:

172.26.37.245 node1.hadoop.com---->namenode,zookeeper,journalnode,hadoop-hdfs-zkfc,resourcenode,historyserver

172.26.37.246 node2.hadoop.com---->datanode,zookeeper,journalnode,nodemanager,hadoop-client,mapreduce

172.26.37.247  node3.hadoop.com---->datanode,nodemanager,hadoop-client,mapreduce

172.26.37.248  node4.hadoop.com---->namenode,zookeeper,journalnode,hadoop-hdfs-zkfc

3.环境说明:

本次追加部署

172.26.37.245 node1.hadoop.com---->resourcenode,historyserver

172.26.37.246 node2.hadoop.com---->nodemanager,hadoop-client,mapreduce

172.26.37.246 node2.hadoop.com---->nodemanager,hadoop-client,mapreduce

node1节点:负责任务调度,资源管理,和任务记录,部署resourcenode,historyserver

node2、node3节点:负责运行任务,部署nodemanager,hadoop-client,mapreduce

一.安装

node1节点

        # yum -y install hadoop-yarn-resourcemanager hadoop-mapreduce-historyserver

node2、node3节点

        # yum -y install hadoop-yarn-nodemanager hadoop-mapreduce hadoop-client

二.配置

1./etc/hadoop/conf/core-site.xml变更(node1、node2、node3节点)

        # cp -p /etc/hadoop/conf/core-site.xml /etc/hadoop/conf/core-site.xml.20200623

        # vi /etc/hadoop/conf/core-site.xml

        添加如下

  <property>

    <name>hadoop.proxyuser.mapred.groups</name>

    <value>*</value>

  </property>

  <!-- 允许mapred用户移动属于这些组中的用户的文件--> 

  <property>

    <name>hadoop.proxyuser.mapred.hosts</name>

    <value>*</value>

  </property>

  <!-- 允许mapred用户移动属于这些主机的文件--> 

2.配置YARN集群的属性及配置JobHistory服务器(node1节点)

        # cp -p /etc/hadoop/conf/mapred-site.xml /etc/hadoop/conf/mapred-site.xml.20200623

        # vi /etc/hadoop/conf/mapred-site.xml

<configuration>

  <property> 

      <name>mapreduce.framework.name</name> 

      <value>yarn</value> 

  </property>

  <!--如果使用的是yarn,此处必须是yarn,否则就是MRv1--> 

  <property>

       <name>mapreduce.jobhistory.address</name>

       <value>node1.hadoop.com:10020</value>

  </property>

  <!--JobHistory服务器的地址 host:port-->

  <property>

       <name>mapreduce.jobhistory.webapp.address</name>

       <value>node1.hadoop.com:19888</value>

  </property>

  <!--JobHistory服务器Web应用程序的地址host:port-->

  <property>

    <name>yarn.app.mapreduce.am.staging-dir</name>

    <value>/user</value>

  </property>

  <!--Yarn运行job的时候需要一个临时文件夹,默认是用 /tmp/hadoop-yarn/staging,改到了hdfs存储上的user目录-->

</configuration>

3.配置YARN守护进程(node1、node2、node3节点)

配置以下服务:ResourceManager(在专用主机上)和NodeManager(在计划运行MapReduce v2作业的每台主机上)。

        # cp /etc/hadoop/conf/yarn-site.xml  /etc/hadoop/conf/yarn-site.xml.20200623

        # vi /etc/hadoop/conf/yarn-site.xml

        变更后为以下内容

<configuration>

  <property>

    <name>yarn.nodemanager.aux-services</name>

    <value>mapreduce_shuffle</value>

  </property>

  <!--需要为Map Reduce应用程序设置的Shuffle服务。-->

  <property>

    <name>yarn.nodemanager.aux-services.mapreduce_shuffle.class</name>

    <value>org.apache.hadoop.mapred.ShuffleHandler</value>

  </property>

  <property>

    <name>yarn.log-aggregation-enable</name>

    <value>true</value>

  </property>

  <property>

    <description>List of directories to store localized files in.</description>

    <name>yarn.nodemanager.local-dirs</name>

    <value>file:///var/lib/hadoop-yarn/cache/${user.name}/nm-local-dir</value>

  </property>

  <!--本地日志目录,可以修改,并自行创建目录,一定要复权给yarn用户-->

  <property>

    <description>Where to store container logs.</description>

    <name>yarn.nodemanager.log-dirs</name>

    <value>file:///var/log/hadoop-yarn/containers</value>

  </property>

  <!--本地日志目录,自行创建或修改,一定要复权给yarn用户-->

  <property>

    <description>Where to aggregate logs to.</description>

    <name>yarn.nodemanager.remote-app-log-dir</name>

    <value>hdfs://cluster1/var/log/hadoop-yarn/apps</value>

  </property>

  <!--nodemanager远程日志目录,存放在hdfs上的。-->

  <!--修改为hdfs群集目录。-->

  <property>

    <description>Classpath for typical applications.</description>

    <name>yarn.application.classpath</name>

    <value>

        $HADOOP_CONF_DIR,

        $HADOOP_COMMON_HOME/*,$HADOOP_COMMON_HOME/lib/*,

        $HADOOP_HDFS_HOME/*,$HADOOP_HDFS_HOME/lib/*,

        $HADOOP_MAPRED_HOME/*,$HADOOP_MAPRED_HOME/lib/*,

        $HADOOP_YARN_HOME/*,$HADOOP_YARN_HOME/lib/*

    </value>

  </property>

  <!--应用程序的类路径Classpath。-->

  <property>     

      <name>yarn.resourcemanager.hostname</name>     

      <value>node1.hadoop.com</value>     

  </property>

  <!--以下属性将设置为此主机上的默认端口-->

</configuration>

4.建立yarn在hdfs上的日志文件夹

        # sudo -u hdfs hadoop fs -mkdir -p /var/log/hadoop-yarn

        # sudo -u hdfs hadoop fs -chown yarn:mapred /var/log/hadoop-yarn

5.创建实验环境

创建/user目录和及其history子目录;设置权限

        # sudo -u hdfs hadoop fs -mkdir /user

        # sudo -u hdfs hadoop fs -mkdir -p /user/cloudera

        # sudo -u hdfs hadoop fs -chmod -R 1777 /user/cloudera

        # sudo -u hdfs hadoop fs -chown mapred:hadoop /user/cloudera

        # sudo -u hdfs hadoop fs -mkdir -p /user/hdfs

        # sudo -u hdfs hadoop fs -chmod -R 1777 /user/hdfs

        # sudo -u hdfs hadoop fs -chown mapred:hadoop /user/hdfs

        # sudo -u hdfs hadoop fs -mkdir -p /user/history

        # sudo -u hdfs hadoop fs -chmod -R 1777 /user/history

        # sudo -u hdfs hadoop fs -chown mapred:hadoop /user/history

        # sudo -u hdfs hdfs dfs -ls /

Found 3 items

drwxrwxrwt  - hdfs supergroup          0 2020-06-25 11:47 /tmp

drwxr-xr-x  - hdfs supergroup          0 2020-06-25 11:57 /user

drwxr-xr-x  - hdfs supergroup          0 2020-06-25 11:49 /var

        # sudo -u hdfs hadoop dfs -ls /user

DEPRECATED: Use of this script to execute hdfs command is deprecated.

Instead use the hdfs command for it.

Found 3 items

drwxrwxrwt  - mapred hadoop          0 2020-06-25 11:57 /user/cloudera

drwxrwxrwt  - mapred hadoop          0 2020-06-25 11:56 /user/hdfs

drwxrwxrwt  - mapred hadoop          0 2020-06-25 11:59 /user/history

6.启动YARN和MapReduce JobHistory服务器

要启动YARN,必须先启动ResourceManager和NodeManager服务:

同时确保在启动NodeManager服务之前先启动ResourceManager。

在ResourceManager系统上(node1节点):

        # service hadoop-yarn-resourcemanager start

        # service hadoop-yarn-resourcemanager status

在每个NodeManager系统上(node2/3节点):

        # service hadoop-yarn-nodemanager start

        # service hadoop-yarn-nodemanager status

启动MapReduce JobHistory服务器(node1节点)

        # service hadoop-mapreduce-historyserver start

        # service hadoop-mapreduce-historyserver status

7.验证history服务

http://172.26.37.245:19888/jobhistory

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 200,612评论 5 471
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 84,345评论 2 377
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 147,625评论 0 332
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,022评论 1 272
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 62,974评论 5 360
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,227评论 1 277
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,688评论 3 392
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,358评论 0 255
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,490评论 1 294
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,402评论 2 317
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,446评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,126评论 3 315
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,721评论 3 303
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,802评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,013评论 1 255
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,504评论 2 346
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,080评论 2 341