7、安装HBase集群
http://apache.fayea.com/hbase/stable/hbase-1.2.5-bin.tar.gz
- 将HBase安装到/usr/local/hbase
tar -xvzf hbase-1.2.5-bin.tar.gz -C /usr/local
mv /usr/local/hbase-1.2.5-bin /usr/local/hbase
# HBase
export HBASE_HOME=/usr/local/hbase
export PATH=$PATH:$HBASE_HOME/bin
- 将hadoop的配置hdfs-site.xml和core-site.xml 放到hbase/conf下
cp /usr/local/hadoop/etc/hadoop/core-site.xml /usr/local/hbase/conf/
cp /usr/local/hadoop/etc/hadoop/hdfs-site.xml /usr/local/hbase/conf/
# 设置hbse使用外部的zk和使用的jdk
export HBASE_MANAGES_ZK=false
export JAVA_HOME=/usr/local/jdk1.7.0_65
<configuration>
<!-- 指定hbase在HDFS上存储的路径 -->
<property>
<name>hbase.rootdir</name>
<value>hdfs://bigdata/hbase</value>
</property>
<!-- 指定hbase是分布式的 -->
<property>
<name>hbase.cluster.distributed</name>
<value>true</value> </property>
<!-- 指定zk的地址,多个用“,”分割 -->
<property>
<name>hbase.zookeeper.quorum</name>
<value>node1:2181,node2:2181,node3:2181</value>
</property>
</configuration>
node3
node4
node5
node6
scp -r /usr/local/hbase/ root@node2:/usr/local
scp -r /usr/local/hbase/ root@node3:/usr/local
scp -r /usr/local/hbase/ root@node4:/usr/local
scp -r /usr/local/hbase/ root@node5:/usr/local
scp -r /usr/local/hbase/ root@node6:/usr/local
# 在启动hbase集群之前要确保hdfs和zookeeper集群已经打开
# 在node1机器上开启集群
start-hbase.sh
# 在node2机器上再开启一个Hmaster进程作为备的Hmaster,以达到高可靠
hbase-daemon.sh start master
http://node1:16010