1.启动journalnode
sbin/hadoop-daemons.sh --config "etc/hadoop" --hostnames "master slave1 slave2" --script "bin/hdfs" start journalnode
如果不启动会报错
2.格式化namenode
和之前一样hdfs namenode -format,执行完这个命令,会在dfs.journalnode.edits.dir指定的目录生成新的文件
在master格式化后将name目录下的文件scp到第二个节点下,不然启动第二个节点会提示没格式化(not formatted)
scp -r /usr/local/hdfs/name/* root@slave1:/usr/local/hdfs/name/
active的namenode 通知journalnode变化的信息,standby 的namenode再读取journalnode的信息,达到同步