Flink StandAlone模式HA配置

第一章 准备
1.SSH互信配置
2.Zookeeper配置
3.hadoop配置
4.Flink配置

第二章操作
一、准备工作
1.设置master,slave1,slave2。编辑每台机器的/etc/hosts文件,添加如下配置:

192.168.100.141 master
192.168.100.142 slave1
192.168.100.143 slave2

2.添加master到slave1和slave2的ssh信任:
2.1 在master机器上执行:ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa;
2.2在master机器上执行:ssh-copy-id -i ~/.ssh/id_rsa.pub master、ssh-copy-id -i ~/.ssh/id_rsa.pub slave1、ssh-copy-id -i ~/.ssh/id_rsa.pub slave2。

二、zookeeper搭建

1.三台机器每台zookeeper-3.4.0下创建data文件夹;
2.在一步骤的data下创建myid,指定012;
3.zoo.cnf配置:
  3.1dataDir=/perfma/zookeeper-3.4.0/data;
  3.2文件底部添加一下几行,其中server.x的0和本机data文件夹下的myid相同;

server.0=192.168.100.141:2888:3888
server.1=192.168.100.142:2888:3888
server.2=192.168.100.143:2888:3888

4.将zk文件夹拷贝至另两台服务器,记得修改myid中的内容;
5.在每一台的zookeeper/bin/下执行zkServer.sh start启动每个节点的zk进程;
6.检查zk状态执行zkServer.sh status,看到状态即可。

三、hadoop搭建

1.修改~/.bash_profile添加 以下配置,并执行source ~/.bash_profile;

export HADOOP_HOME=${你的HAdoop安装路径}
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin;

2.在master机器上配置(hadoop-2.9.2/etc/hadoop)
  2.1 hadoop-env.sh最底部添加:

export export JAVA_HOME=${你的JAVA_HOME路径};

  2.2修改core-site.xml,添加如以下配置,并创建hadoop.tmp.dird的文件夹;

<configuration>
        <property>
                <name>hadoop.tmp.dir</name>
                <value>file:/home/admin/perfma/hadoop-2.9.2/hadoop/tmp/dir</value>
                <description>A base for other temporary directories.</description>
        </property>
        <property>
                <name>io.file.buffer.size</name>
                <value>131072</value>
        </property>
        <property>
                <name>fs.default.name</name>
                <value>hdfs://master:9000</value>
        </property>
        <property>
                <name>hadoop.proxyuser.root.hosts</name>
                <value>*</value>
        </property>
        <property>
                <name>hadoop.proxyuser.root.groups</name>
                <value>*</value>
        </property>
</configuration>

  2.3修改hdfs-site.xml,添加如以下配置,并创建dfs.namenode.name.dir和dfs.datanode.data.dir的文件夹;设置dfs.block.size为1048576;

<configuration>
        <property>
                <name>dfs.replication</name>
                <value>2</value>
        </property>
        <property>
                <name>dfs.namenode.name.dir</name>
                <value>file:/home/admin/perfma/hadoop-2.9.2/dfs/namenode/name/dir</value>
                <final>true</final>
        </property>
        <property>
                <name>dfs.datanode.data.dir</name>
                <value>file:/home/admin/perfma/hadoop-2.9.2/dfs/datanode/name/dir</value>
                <final>true</final>
        </property>
        <property>
                <name>dfs.namenode.secondary.http-address</name>
                <value>master:9001</value>
        </property>
        <property>
                <name>dfs.webhdfs.enabled</name>
                <value>true</value>
        </property>
        <property>
                <name>dfs.permissions</name>
                <value>false</value>
        </property>
        <property>
                <name>dfs.block.size</name>
                <value>1048576</value>
        </property>
</configuration>

  2.4修改yarn-site.xml,添加如以下配置:

<configuration>
<!-- Site specific YARN configuration properties -->
        <!-- Site specific YARN configuration properties -->
        <property>
                <name>yarn.resourcemanager.address</name>
                <value>master:18040</value>
        </property>
        <property>
                <name>yarn.resourcemanager.scheduler.address</name>
                <value>master:18030</value>
        </property>
        <property>
                <name>yarn.resourcemanager.webapp.address</name>
                <value>master:18088</value>
        </property>
        <property>
                <name>yarn.resourcemanager.resource-tracker.address</name>
                <value>master:18025</value>
        </property>
        <property>
                <name>yarn.resourcemanager.admin.address</name>
                <value>master:18141</value>
        </property>
        <property>
                <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
                <value>org.apache.hadoop.mapred.ShuffleHandler</value>
        </property>
</configuration>

  2.5以mapred-site.xml.tmplate为模版复制一个mapred-site.xml,添加以下配置:

<configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
</configuration>

  2.6 修改slaves文件,添加slave1、slave2,如以下配置:

slave1
slave2

3.格式化namenode。
  3.1在master节点上的hadoop-2.9.2/bin/下执行./hdfs namenode -format;
  3.2 检查,看到有这句话即可: common.Storage: Storage directory /opt/hadoop/hdfs/name has been successfully formatted;
4.将master的hadoop文件夹拷贝到slave1和slave2的相同路径下;
5.启动,在hadoop-2.9.2/sbin/下执行sh start-all.sh;
6.检查。浏览器访问 master:50070,看到有两个datanode即可,如图:


image.png

四、flink搭建

1.准备。在hadoop环境创建 /flink、flink/check-point、flink/save-point、flink/ha;./hdfs dfs -mkdir /flink/ha;
2.配置。在flink-1.8.0/conf文件夹下修改flink-conf.yaml的以下配置:

jobmanager.rpc.address: master
high-availability: zookeeper
high-availability.storageDir: hdfs://master:9000/flink/ha/
high-availability.zookeeper.quorum: master:2181,slave1:2181,slave2:2181
state.checkpoints.dir: hdfs://master:9000/flink/check-point
state.savepoints.dir: hdfs://master:9000/flink/save-point

3.创建io.tmp.dirs设置的文件夹 /home/admin/perfma/flink/tmp;
4.配置slaves;

master
slave1
slave2

5.配置masters;

master:8084
slave1:8084

6.将flink安装包拷贝至slave1和slave2中;
7.启动。在flink-1.8.0/bin目录下使用./start-cluster.sh执行启动;
8.检查。用run-job.sh启动一个任务,然后kill master的flink进程号,观察在slave1的节点是否能继续接替任务。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 199,636评论 5 468
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 83,890评论 2 376
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 146,680评论 0 330
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 53,766评论 1 271
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 62,665评论 5 359
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,045评论 1 276
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,515评论 3 390
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,182评论 0 254
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,334评论 1 294
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,274评论 2 317
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,319评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,002评论 3 315
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,599评论 3 303
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,675评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 30,917评论 1 255
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,309评论 2 345
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 41,885评论 2 341

推荐阅读更多精彩内容