三台服务器分别是
192.1682.158
192.1682.152
192.1682.150
然后在三台服务器分别安装zookeeper
官网下载地址:http://mirrors.hust.edu.cn/apache/zookeeper/
wget http://mirrors.hust.edu.cn/apache/zookeeper/stable/zookeeper-3.4.12.tar.gz
解压到user/local下
tar -zxvf zookeeper-3.4.12.tar.gz -C /usr/local
mv /usr/local/zookeeper-3.4.12 /usr/local/zookeeper
修改配置文件
cp /usr/local/zookeeper/conf/zoo_sample.cfg /usr/local/zookeeper/conf/zoo.cfg
vim /usr/local/zookeeper/conf/zoo.cfg
tickTime=2000
initLimit=10
syncLimit=5
dataDir=/usr/local/zookeeper/data
clientPort=2181
server.1=192.168.2.158:2888:3888
server.2=192.168.2.152:2888:3888
server.3=192.168.2.150:2888:3888
创建数据存储目录
mkdir -p /usr/local/zookeeper/data
创建myid文件, id 与 zoo.cfg 中的序号对应
#在192.168.2.158机器上执行
echo 1 > /usr/local/zookeeper/data/zookeeper_server.pid
#在192.168.2.152机器上执行
echo 2 > /usr/local/zookeeper/data/zookeeper_server.pid
#在192.168.2.150机器上执行
echo 3 > /usr/local/zookeeper/data/zookeeper_server.pid
配置环境变量
vim /etc/profile
在最后加上
export ZK_HOME=/usr/local/zookeeper
export PATH=$ZK_HOME/bin:$PATH
分别启动
zkServer.sh start
查看状态
zkServer.sh status
ZooKeeper角色
配置说明
参数 | 说明 |
---|---|
tickTime | 这个时间是作为Zookeeper服务器之间或者客户端与服务器之间维持心跳的时间间隔,也就是每个tickTime时间就会发送一下心跳。 |
initLimit | 这个配置项是用来配置zookeeper接受客户端的(这里所说的客户端不是用户连接Zookeeper服务器的客户端而是Zookeeper服务器集群中连接到Leader的Follower服务器)初始化连接时最长能忍受多少个心跳时间间隔数。当已经超过10个心跳的时间(也就是tickTime)长度后Zookeeper服务器还没有接到客户端的返回信息,那么表明这个客户端连接失败。总时间长度就是10*2000=20秒。 |
syncLimit | 这个配置项标示Leader与Follower之间发送消息、请求和应答时间长度,最长不能超过多少个tickTime的时间长度,总的时间长度就是5*2000=10秒。 |
dataDir | Zookeeper保存数据的目录,默认情况下,Zookeeper将数据的日志文件也保存在这里。 |
dataLogDir | 短文本 |
clientPort | 这个端口就是客户端连接Zookeeper服务器的端口。Zookeeper会监听这个端口,接受客户端的访问请求。 |
server.A=B:C:D | 其中A是一个数字,标示这是第几号服务器;B是这个服务器的ip地址;C标示的是这个服务器与集群中的Leader服务器交换信息的端口;D标示的是万一集群中Leader服务器挂了,需要一个端口来进行选举,选出一个新的Leader,而这个端口就是用来执行选举时服务器相互通信的端口。如果是伪集群的配置方式,由于B都是一样,所以不同的Zookeeper实例通信端口号不能一样,所以要给他们分配不同的端口号。 |
myid | 集群模式下配置一个文件myid,这个文件在daraDir目录下,这个文件里面就有一个数据就是A的值,Zookeeper启动时读取此文件,拿到里面的数据与zoo.cfg里面的配置信息比较从而判断到底是哪个server。 |
清理文件
注意:zookeeper不会主动的清除旧的快照和日志文件
第一种:我们可以通过命令去定期的清理。
#!/bin/bash
#snapshot file dir
dataDir=/usr/local/zookeeper/data/version-2
#Leave 66 files
count=66
count=$[$count+1]
ls -t $dataDir/snapshot.* | tail -n +$count | xargs rm -f
#以上这个脚本定义了删除对应目录中的文件,保留最新的66个文件,可以将他写到crontab中,设置为每天凌晨2点执行一次就可以了。
其他方法:
第二种:使用ZK的工具类PurgeTxnLog,它的实现了一种简单的历史文件清理策略,可以在这里看一下他的使用方法 http://zookeeper.apache.org/doc/r3.4.6/zookeeperAdmin.html
第三种:对于上面这个执行,ZK自己已经写好了脚本,在bin/zkCleanup.sh中,所以直接使用这个脚本也是可以执行清理工作的。
第四种:从3.4.0开始,zookeeper提供了自动清理snapshot和事务日志的功能,通过配置 autopurge.snapRetainCount 和 autopurge.purgeInterval 这两个参数能够实现定时清理了。这两个参数都是在zoo.cfg中配置的:
autopurge.purgeInterval 这个参数指定了清理频率,单位是小时,需要填写一个1或更大的整数,默认是0,表示不开启自己清理功能。
autopurge.snapRetainCount 这个参数和上面的参数搭配使用,这个参数指定了需要保留的文件数目。默认是保留3个。
推荐使用第一种方法,对于运维人员来说,将日志清理工作独立出来,便于统一管理也更可控。毕竟zk自带的一些工具并不怎么给力。
几个zNode节点操作的api简单介绍:
create /parh data 创建一个名为/path的zNode节点,并包含数据data
delete /path 删除名为/path的zNode节点
exists /path 检查是否存在名为/path的zNode节点
setData /path data 设置名为/path的zNode的数据为data
getData /path 返回名为/path的zNode节点的数据信息
getChildren /path 返回所有/path节点的所有子节点列表
zNode节点还有不同的类型,持久(persistent)节点和临时(ephemeral)节点。持久的zNode,如/path,只能通过调用delete来进行删除,而临时的zNode则与之相反,当创建该节点的客户端崩溃或者关闭了与ZooKeeper服务器的连接时候,这个临时zNode节点就会被删除了。其中临时节点可用于实现分布式锁。