zookeeper官网:Apache ZooKeeper
zookeeper是一个分布式协调框架,保证的是CP,即一致性和分区容错性;zookeeper是一个分布式文件存储系统,文件节点可以存储数据,监听子文件节点等可以实现数据的集群管理、统一命名服务、分布式配置管理、分布式消息队列、分布式锁、分布式协调等功能
下载地址:Apache ZooKeeper
运行环境:jdk8
- tar -zxvf apache-zookeeper-3.9.0-bin.tar.gz
- #切换的zookeeper的conf目录下
- cp zoo_sample.cfg zoo.cfg
-
- vim zoo.cfg
- #zoo.cfg文件配置的关键信息如下
- #zookeeper时间配置中的基本单位(毫秒)
- tickTime=2000
- #允许follower初始化连接到leader最大时长,它表示tickTime时间倍数 即:initLimit*tickTime
- initLimit=10
- #允许follower与leader数据同步最大时长,它表示tickTime时间倍数 即:syncLimit*tickTime
- syncLimit=5
- #zookeeper数据存储目录及日志保存目录(如果没有指明dataLogDir,则日志也保存在这个目录下)
- dataDir=/usr/local/zookeeper
- #对客户端提供的端口号
- clientPort=2181
- #单个客户端与zookeeper最大并发连接数
- maxClientCnxns=60
- #保存的数据快照数量,超出3将会被清理
- autopurge.snapRetainCount=3
- #自动触发清除任务时间间隔,小时为单位,默认为0,表示不自动清除
- autopurge.purgeInterval=1
- #切换的zookeeper的home目录下
- #查看启动相关参数
- bin/zkServer.sh
- #默认加载配置文件conf/zoo.cfg
- bin/zkServer.sh --config conf/zoo.cfg start
-
- #查看zookeeper状态
- bin/zkServer.sh status
- bin/zkCli.sh
- #远程连接zookeeper server
- bin/zkCli.sh -server ip:port
连接到zookeeper server后输入help命令查看支持的命令
常见cli命令
命令基本语法 | 功能描述 |
help | 显示所有操作命令 |
ls [-s] [-w] [-R] path | 使用 ls 命令来查看当前 znode 的子节点 [可监听] -w: 监听子节点变化 -s: 节点状态信息(时间戳、版本号、数据大小等) -R: 表示递归的获取 |
create [-s] [-e] [-c] [-t ttl] path [data] [acl] | 创建节点 -s : 创建有序节点。 -e : 创建临时节点。 -c : 创建一个容器节点。 t ttl] : 创建一个TTL节点, -t 时间(单位毫秒)。 data:节点的数据,可选,如果不使用时,节点数据就为null。 acl:访问控制 |
get [-s] [-w] path | 获取节点数据信息 -s: 节点状态信息(时间戳、版本号、数据大小等) -w: 监听节点变化 |
set [-s] [-v version] path data | 设置节点数据 -s:表示节点为顺序节点 -v: 指定版本号 |
getAcl [-s] path | 获取节点的访问控制信息 -s: 节点状态信息(时间戳、版本号、数据大小等) |
setAcl [-s] [-v version] [-R] path acl | 设置节点的访问控制列表 -s:节点状态信息(时间戳、版本号、数据大小等) -v:指定版本号 -R:递归的设置 |
stat [-w] path | 查看节点状态信息 |
delete [-v version] path | 删除某一节点,只能删除无子节点的节点。 -v: 表示节点版本号 |
deleteall path | 递归的删除某一节点及其子节点 |
setquota -n|-b val path | 对节点增加限制 n:表示子节点的最大个数 b:数据值的最大长度,-1表示无限制 |
Releases · vran-dev/PrettyZoo · GitHub
直接下载安装就行了
zookeeper的层次模型称为Data Tree,Data Tree的每个节点叫做Znode,每个节点采用key-value的数据模型保存数据,每个节点默认1M的空间存储数据,每个节点都有一个版本(version),从0开始计数
- #创建持久节点
- create /servers xxx
节点创建后即使发生zookeeper集群宕机或者client宕机也不会丢失
- #创建临时节点
- create -e /servers/host xxx
client宕机或者client在指定的timeout时间内没有给zookeeper集群发消息,这样的znode就会消失
- #创建临时有序节点
- create -e -s /servers/host xxx
创建节点时会生成节点自增的名称后缀
- #创建容器节点
- create -c /container xxx
(3.5.3版本新增)Container容器节点,当容器中没有任何子节点,该容器节点会被zk定期删除(定时任务默认60s 检查一次)。 和持久节点的区别是 ZK 服务端启动后,会有一个单独的线程去扫描,所有的容器节点,当发现容器节点的子节点数量为 0 时,会自动删除该节点。可以用于 leader 或者锁的场景中。
- # 创建ttl节点
- create -t 10 /ttl
带过期时间节点,默认禁用,需要在zoo.cfg中添加 extendedTypesEnabled=true 开启。 注意:TTL不能用于临时节点
watch机制,顾名思义是一个监听机制。Zookeeper中的watch机制,必须客户端先去服务端注册监听,这样事件发送才会触发监听,通知给客户端。
监听的对象是事件,支持的事件类型如下:
- #监听节点数据的变化
- get -w path
- stat -w path
- #监听子节点增减的变化
- ls -w path
特性 | 说明 |
一次性触发 | watch是一次性的,一旦被触发就会移除,再次使用时需要重新注册 |
客户端顺序回调 | watch回调是顺序串行执行的,只有回调后客户端才能看到最新的数据状态。一个watcher回调逻辑不应该太多,以免影响别的watch执行 |
轻量级 | WatchEvent是最小的通信单位,结构上只包含通知状态、事件类型和节点路径,并不会告诉数据节点变化前后的具体内容 |
时效性 | watcher只有在当前session彻底失效时才会无效,若在session有效期内快速重连成功,则watcher依然存在,仍可接收到通知; |
永久性Watch
在被触发之后,仍然保留,可以继续监听ZNode上的变更,是Zookeeper 3.6.0版本新增的功能
addWatch [-m mode] path
addWatch的作用是针对指定节点添加事件监听,支持两种模式
1. 同一级节点 key 名称是唯一的
已存在/lock节点,再次创建会提示已经存在
2.创建节点时,必须要带上全路径
3.session 关闭,临时节点清除
4.自动创建顺序节点
5.watch 机制,监听节点变化
事件监听机制类似于观察者模式,watch 流程是客户端向服务端某个节点路径上注册一个 watcher,同时客户端也会存储特定的 watcher,当节点数据或子节点发生变化时,服务端通知客户端,客户端进行回调处理。特别注意:监听事件被单次触发后,事件就失效了。
6.delete 命令只能一层一层删除。提示:新版本可以通过 deleteall 命令递归删除。
ZooKeeper适用于存储和协同相关的关键数据,不适合用于大数据量存储。
有了上述众多节点特性,使得 zookeeper 能开发不出不同的经典应用场景,比如:
在分布式环境下,经常需要对应用/服务进行统一命名,便于识别。
例如:IP不容易记住,而域名容易记住。
利用 ZooKeeper 顺序节点的特性,制作分布式的序列号生成器,或者叫 id 生成器。(分布式环境下使用作为数据库 id,另外一种是 UUID(缺点:没有规律)),ZooKeeper 可以生成有顺序的容易理解的同时支持分布式环境的编号。
- /
- └── /order
- ├── /order-date1-000000000000001
- ├── /order-date2-000000000000002
- ├── /order-date3-000000000000003
- ├── /order-date4-000000000000004
- └── /order-date5-000000000000005
数据发布/订阅的一个常见的场景是配置中心,发布者把数据发布到 ZooKeeper 的一个或一系列的节点上,供订阅者进行数据订阅,达到动态获取数据的目的。
配置信息一般有几个特点:
ZooKeeper 采用的是推拉结合的方式。
分布式环境中,实时掌握每个节点的状态是必要的,可根据节点实时状态做出一些调整。
ZooKeeper可以实现实时监控节点状态变化:
在Zookeeper中记录每台服务器的访问数,让访问数最少的服务器去处理最新的客户端请求
master-work是一个广泛使用的分布式架构。 master-work架构中有一个master负责监控worker的状态,并为
worker分配任务。
裂。
以很快的进入active状态。
时候,通常重新进行任务的重新分配。
zookeeper 的 acl 通过 [scheme:id:permissions] 来构成权限列表。
模式 | 描述 |
world | 授权对象只有一个anyone,代表登录到服务器的所有客户端都能对该节点执行某种权限 |
ip | 对连接的客户端使用IP地址认证方式进行认证 |
auth | 使用以添加认证的用户进行认证 |
digest | 使用 用户:密码方式验证 |
权限类型 | ACL简写 | 描述 |
read | r | 读取节点及显示子节点列表的权限 |
write | w | 设置节点数据的权限 |
create | c | 创建子节点的权限 |
delete | d | 删除子节点的权限 |
admin | a | 设置该节点ACL权限的权限 |
授权命令 | 用法 | 描述 |
getAcl | getAcl path | 读取节点的ACL |
setAcl | setAcl path acl | 设置节点的ACL |
create | create path data acl | 创建节点时设置acl |
addAuth | addAuth scheme auth | 添加认证用户,类似于登录操作 |
测试
取消节点的读权限后,读取/name节点没有权限
取消节点删除子节点的权限
auth授权模式
创建用户
addauth digest gaorufeng:123
设置权限
- setAcl /name auth:gaorufeng:123:cdrwa
-
- # 加密
- echo -n gaorufeng:123 | openssl dgst -binary -sha1 | openssl base64
- setAcl /name auth:fox:ZsWwgmtnTnx1usRF1voHFJAYGQU=:cdrwa
- addauth digest gaorufeng:123
digest授权模式
- #设置权限
- setAcl /tuling/fox digest:gaorufeng:ZsWwgmtnTnx1usRF1voHFJAYGQU=:cdrwa
IP授权模式
- setAcl /node-ip ip:192.168.109.128:cdwra
- create /node-ip data ip:192.168.109.128:cdwra
多个指定IP可以通过逗号分隔, 如 setAcl /node-ip ip:IP1:rw,ip:IP2:a
Super 超级管理员模式
这是一种特殊的Digest模式, 在Super模式下超级管理员用户可以对Zookeeper上的节点进行任何的操作。
需要在启动脚本上通过添加JVM 参数开启:
- # DigestAuthenticationProvider中定义
- -Dzookeeper.DigestAuthenticationProvider.superDigest=admin:<base64encoded(SHA1(123456))
可插拔身份验证接口
ZooKeeper提供了一种权限扩展机制来让用户实现自己的权限控制方式。
要想实现自定义的权限控制机制,需要继承接口AuthenticationProvider,用户通过该接口实现自定义的权限控制。
- public interface AuthenticationProvider {
- // 返回标识插件的字符串
- String getScheme();
- // 将用户和验证信息关联起来
- KeeperException.Code handleAuthentication(ServerCnxn cnxn, byte authData[]);
- // 验证id格式
- boolean isValid(String id);
- // 将认证信息与ACL进行匹配看是否命中
- boolean matches(String id, String aclExpr);
- // 是否授权
- boolean isAuthenticated();
- }
一台虚拟机器:192.168.64.133
1) 修改zoo.cfg配置,添加server节点配置
- #每个集群节点都新建一个data目录作为数据日志区分
- dataDir=/usr/local/zookeeper/data1
- dataLogDir=/usr/local/zookeeper/log1
- #客户端连接端每个集群节点也要更换
- clientPort=2181
- server.1=192.168.64.133:2881:3881
- server.2=192.168.64.133:2882:3882
- server.3=192.168.64.133:2883:3883
- server.4=192.168.64.133:2884:3884:observer
-
- #切换到每个集群节点下的dataDir目录下创建myid文件 内容对应到server.x的x值
- vim myid
-
- #启动全部节点
- bin/zkServer.sh start conf/zoo1.cfg
- bin/zkServer.sh start conf/zoo2.cfg
- bin/zkServer.sh start conf/zoo3.cfg
- bin/zkServer.sh start conf/zoo4.cfg
-
- #查看集群节点状态
- bin/zkServer.sh status conf/zoo1.cfg
- bin/zkServer.sh status conf/zoo2.cfg
- bin/zkServer.sh status conf/zoo3.cfg
- bin/zkServer.sh status conf/zoo4.cfg
-
- #连接客户端
- bin/zkCli.sh -server 192.168.64.133:2181,192.168.64.133:2182,192.168.64.133:2183,192.168.64.133:2184
用户可以使用Zookeeper四字命令获取 zookeeper 服务的当前状态及相关信息。用户在客户端可以通过 nc(netcat) 向 zookeeper 提交相应的命令。
安装 nc 命令:
# centos yum install nc
四字命令格式:
echo [command] | nc [ip] [port]
ZooKeeper 常用四字命令主要如下:
四字命令 | 功能描述 |
conf | 3.3.0版本引入的。打印出服务相关配置的详细信息。 |
cons | 3.3.0版本引入的。列出所有连接到这台服务器的客户端全部连接/会话详细信息。包括"接受/发送"的包数量、会话id、操作延迟、最后的操作执行等等信息。 |
crst | 3.3.0版本引入的。重置所有连接的连接和会话统计信息。 |
dump | 列出那些比较重要的会话和临时节点。这个命令只能在leader节点上有用。 |
envi | 打印出服务环境的详细信息。 |
reqs | 列出未经处理的请求 |
ruok | 测试服务是否处于正确状态。如果确实如此,那么服务返回"imok",否则不做任何相应。 |
stat | 输出关于性能和连接的客户端的列表。 |
srst | 重置服务器的统计。 |
srvr | 3.3.0版本引入的。列出连接服务器的详细信息 |
wchs | 3.3.0版本引入的。列出服务器watch的详细信息。 |
wchc | 3.3.0版本引入的。通过session列出服务器watch的详细信息,它的输出是一个与watch相关的会话的列表。 |
wchp | 3.3.0版本引入的。通过路径列出服务器watch的详细信息。它输出一个与session相关的路径。 |
mntr | 3.4.0版本引入的。输出可用于检测集群健康状态的变量列表 |
ZooKeeper: Because Coordinating Distributed Systems is a Zoo
开启四字命令
方法1: 在zoo.cfg 文件里加入配置项让这些指令放行
#开启四字命令 4lw.commands.whitelist=*
方法2:在zk的启动脚本zkServer.sh中新增放行指令
#添加JVM环境变量-Dzookeeper.4lw.commands.whitelist=* ZOOMAIN="-Dzookeeper.4lw.commands.whitelist=* ${ZOOMAIN}"
stat 命令
stat 命令用于查看 zk 的状态信息,实例如下:
echo stat | nc 192.168.65.186 2181
ruok 命令
ruok 命令用于查看当前 zkserver 是否启动,若返回 imok 表示正常。
echo ruok | nc 192.168.65.186 2181