本节内容:
Zookeeper介绍
Zookeeper特点
Zookeeper应用场景
用到了Zookeeper的一些系统
Zookeeper集群安装部署
一、Zookeeper介绍
是一个针对大型分布式系统的可靠协调系统;
提供的功能包括:配置维护、名字服务、分布式同步、组服务等;
目标就是封装好复杂易出错的关键职务,将简单易用的接口和性能高效、功能稳定的系统提供给用户;
Zookeeper已经成为Hadoop生态系统中的基础组件。
二、Zookeeper特点
最终一致性:为客户端展示同一视图,这是Zookeeper最重要的性能;
可靠性:如果消息被一台服务器接受,那么它将被所有的服务器接受;
原子性:更新只能成功或失败,没有中间状态;
三、Zookeeper应用场景
1. 统一命名服务
(1)分布式环境下,经常需要对应用/服务进行统一命名,便于识别不同的服务
类似于域名与ip之间对应关系,域名容易记住;
通过名称来获取资源或服务的地址,提供者信息。
(2)按照层次结构组织服务/应用名称
可将服务名称以及地址信息写在Zookeeper上,客户端通过Zookeeper获取可用服务列表。
2. 配置管理
(1)分布式环境下,配置文件管理和同步是一个常见问题
一个集群中,所有节点的配置信息是一致的,比如Hadoop;
对配置文件修改后,希望能够快速同步到各个节点上。
(2)配置管理可交由Zookeeper实现
可将配置信息写入Zookeeper的一个znode上;
各个节点监听这个znode
一旦znode中的数据被修改,Zookeeper将会通知各个节点。
3. 集群管理
(1)分布式环境下,实时掌握每个节点的状态是必要的
可根据节点实时状态做出一些调整。
(2)可交由Zookeeper实现
可将节点信息写入Zookeeper的一个znode上;
监听这个znode可获得它的实时状态变化。
(3)典型应用
HBase中Master状态的监控与选举。
4. 分布式通知/协调
原理其实就是发布/订阅。
(1)分布式环境下经常存在一个服务需要知道它所管理的子服务的状态
NameNode需要知道各DataNode的状态
(2)心跳检测机制可通过Zookeeper实现
(3)信息推送可由Zookeeper实现(发布/订阅模式)
5. 分布式锁
(1)Zookeeper是强一致性的
多个客户端同时在Zookeeper上创建相同znode,只有一个创建成功。
(2)实现锁的独占性
多个客户端同时在Zookeeper上创建相同znode,创建成功的那个客户端得到锁,其他客户端等待。
(3)控制锁的时序
各个客户端在某个znode下创建临时znode(类型为CreateMode.EPHEMERAL_SEQUENTIAL),这样,该znode可掌握全局访问时序。
四、用到了Zookeeper的一些系统
HDFS
YARN
Storm
HBase
Flume
Dubbo
metaq
五、Zookeeper集群安装部署
下面开始介绍Zookeeper的安装部署。安装部署分三种模式:单机模式、伪分布式模式和分布式模式。单机模式和为分布式比较简单,多用于本地测试调试,下面介绍分布式模式安装部署。
注意:3台机器都需要安装zk。对于Zookeeper集群的话,官方推荐的最小节点数为3个。
1. 环境信息
主机名操作系统版本IP地址安装软件
consoleCentOS 7.0114.55.29.246JDK1.7、zookeeper-3.4.6
log1CentOS 7.0114.55.29.86JDK1.7、zookeeper-3.4.6
log2CentOS 7.0114.55.29.241JDK1.7、zookeeper-3.4.6
2. 安装jdk1.7
3台机器都需要安装jdk1.7
[root@log1 local]#mkdir/usr/java
[root@log1 local]# tarzxf jdk-7u80-linux-x64.gz -C /usr/java/[root@log1 local]# vim /etc/profile
export JAVA_HOME=/usr/java/jdk1.7.0_80
export PATH=$JAVA_HOME/bin:$PATH
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
[root@log1 local]# source /etc/profile
3. 安装配置zk
(1)配置zk节点的hosts文件:配置3台机器的ip地址和主机名的对应关系。以下以console主机为例,其hosts文件添加下面3行:
114.55.29.246 console114.55.29.86 log1114.55.29.241log2
(2)解压安装配置第一台zk
[root@console local]#tarzxf zookeeper-3.4.6.tar.gz
[root@console local]# cd zookeeper-3.4.6
创建快照日志存放目录:
[root@console zookeeper-3.4.6]#mkdir-p dataDir
创建事务日志存放目录:
[root@console zookeeper-3.4.6]#mkdirdataLogDir
【注意】:如果不配置dataLogDir,那么事务日志也会写在dataDir目录中。这样会严重影响zk的性能。因为在zk吞吐量很高的时候,产生的事务日志和快照日志太多。
修改配置文件,添加如下内容:
[root@console zookeeper-3.4.6]# cd conf
[root@console conf]# mv zoo_sample.cfg zoo.cfg
[root@console conf]# vim zoo.cfg
# 存放数据文件
dataDir=/usr/local/zookeeper-3.4.6/dataDir
# 存放日志文件
dataLogDir=/usr/local/zookeeper-3.4.6/dataLogDir
# zookeeper cluster,2888为选举端口,3888为心跳端口
server.1=console:2888:3888server.2=log1:2888:3888server.3=log2:2888:3888
在我们配置的dataDir指定的目录下面,创建一个myid文件,里面内容为一个数字,用来标识当前主机,conf/zoo.cfg文件中配置的server.X中X为什么数字,则myid文件中就输入这个数字:
[root@console ~]#echo"1"> /usr/local/zookeeper-3.4.6/dataDir/myid
(3)远程复制第一台的zk到另外两台上,并修改myid文件为2和3
[root@console local]#scp-rp zookeeper-3.4.6root@114.55.29.86:/usr/local/[root@console local]# scp-rp zookeeper-3.4.6root@114.55.29.241:/usr/local/
4. 启动和关闭zk
在ZooKeeper集群的每个结点上,执行启动ZooKeeper服务的脚本,如下所示:
[root@console bin]# ./zkServer.sh start
[root@log1 bin]# ./zkServer.sh start
[root@log2 bin]# ./zkServer.shstart
日志可查询:/usr/local/zookeeper-3.4.6/bin/zookeeper.out
可以通过命令jps查看Zookeeper进程:
停止zk命令:
# /usr/local/zookeeper-3.4.6/bin/zkServer.shstop
5. 测试zk集群
可以通过ZooKeeper的脚本来查看启动状态,包括集群中各个结点的角色(或是Leader,或是Follower)
[root@console bin]# ./zkServer.sh status
JMX enabled by default
Using config: /usr/local/zookeeper-3.4.6/bin/../conf/zoo.cfg
Mode: follower
[root@log1 bin]# ./zkServer.sh status
JMX enabled by default
Using config: /usr/local/zookeeper-3.4.6/bin/../conf/zoo.cfg
Mode: leader
[root@log2 bin]# ./zkServer.sh status
JMX enabled by default
Using config: /usr/local/zookeeper-3.4.6/bin/../conf/zoo.cfg
Mode: follower
通过上面状态查询结果可见,log1是集群的Leader,其余的两个结点是Follower。
另外,可以通过客户端脚本,连接到ZooKeeper集群上。对于客户端来说,ZooKeeper是一个整体,连接到ZooKeeper集群实际上感觉在独享整个集群的服务,所以,你可以在任何一个结点上建立到服务集群的连接。
连接zookeeper
6. 脚本定期清理zk快照和日志文件
正常运行过程中,ZK会不断地把快照数据和事务日志输出到dataDir和dataLogDir这两个目录,并且如果没有人为操作的话,ZK自己是不会清理这些文件的。 我这里采用脚本切割。
脚本切割zookeeper日志
每个Zookeeper集群节点配置周期性任务,每个星期日的0点0分执行:
[root@console zookeeper-3.4.6]# crontab -e00* *0/usr/local/zookeeper-3.4.6/clean_zklog.sh