指定服务端,启动客户端命令:
bin/zkCli.sh -server 服务端主机名:端口号
1)ls / 查看根节点下面的子节点
ls -s / 查看根节点下面的子节点以及根节点详细信息

其中,cZxid是创建节点的事务id,每次修改Zookeeper的状态都会产生一个事务id;
ctime是节点被创建的毫秒数(从1970年开始),这里是zookeeper自带的默认节点,其ctime就是0;mZxid是节点最后被更新的事务id;
mtime是节点最后修改的毫秒数;pZxid是最后更新的子节点的事务id;ephemeralOwner如果是临时节点则表示拥有这个节点的s
ession id,如果不是临时节点则为0;
dataLength是该节点的数据长度;
numChildren是该节点的子节点数量。
持久节点:客户端和服务端断开连接后,创建的节点不删除
短暂/临时节点:客户端和服务端断开连接后,创建的节点删除
上面两种节点还可以继续分为带序号和不带序号的,如果带序号,节点名称后面会接一个数值,顺序递增,由父节点维护。

创建永久节点:create path "val"


(注意,ls命令后面的路径不能以/结尾,这里跟Linux不一样)
查询节点的值:get -s path


创建带序号的永久节点:create -s path "val"

以相同的路径再次创建同名节点,带序号的节点会自动序号加1,不带序号的节点创建报错

以上是永久节点,退出客户端之后这些节点依然存在
创建临时节点:create -e path "val"

创建带序号的临时节点只需加上-s即可

因为已经有shuguo,weiguo,wuguo,所以新创建的带序号的临时节点的序号为3。
断开客户端之后,上面创建的临时节点wuguo会被删除。
修改节点的值:set path "newVal"


监听主要是通过getChildren和getData来实现,表面上是获取节点子节点或者节点数据的方法,但是第二个参数表示是否监听,一般为true(第二个参数也可以传一个自定义的监听器),所以实现了监听,当子节点发生增减或者节点数据发生变化时,就会通知客户端,触发process方法。getChildren和getData是Java API监听方式,稍后介绍,这里先介绍命令行监听。
命令行开启监听节点数据:get -w path

在另一个会话端修改sanguo的节点值,在本端会产生事件通知:

再次在另一个会话端修改sanguo的节点值,在本端不会产生事件通知,因为监听只生效一次,要想再次监听,需要再次注册,即执行get -w path。
监控子节点变化:ls -w path
再另一个会话端创建一个子节点,在本端会产生一个事件通知

节点删除:delete path
删除节点及其下面的子节点:deleteall path

查看节点状态:stat path
添加pom依赖:
- <dependency>
- <groupId>org.apache.zookeepergroupId>
- <artifactId>zookeeperartifactId>
- <version>3.5.7version>
- dependency>
建立Zookeeper连接:
- Zookeeper zk = new Zookeeper(connectString, sessionTimeout, new Watcher() {
- @Override
- public void process(WatchedEvent watchedEvent) {
-
- }
- })
其中connectString是主机地址,如果有多个主机,用逗号隔开,中间不能有空格。sessionTimeout是超时时间,单位是微秒。第三个参数是监听器,里面一般是根据事件类型以及事件路径来做相应的处理,也可在里面继续调用getChildren或者getData方法实现持续监听。
一旦连接上Zookeeper之后就会调用到process方法,里面一般会根据事件类型来对某个countDownLatch变量进行减1操作,在主线程中会等待这个变量为0,即等待Zookeeper连接上。
创建节点:
String node = zk.create(path, data, ZooDfs.Ids.OPEN_ACL_UNSAFE, CreateMode.PERSISTENT);
监控子节点的增删(注册监听):
- List
children = zk.getChildren(path, true) -
- for (String child : children) {
- System.out.println(child);
- }
要想验证对子节点增删的监听,首先在java主线程中添加一个睡眠的函数,使其持续运行不至于很快结束,然后在process回调中添加相应的打印代码(比如继续getChildren,打印子节点信息),这样手动去添加节点,会执行到process函数中的打印信息。
判断节点是否存在:
- Stat stat = ck.exists(path, false);
- System.out.println(stat == null ? "not exist" : "exist");
1)写请求直接发给Leader

其中,只要有半数节点写完,就可以发送ack给客户端,其他没写的服务端稍后再写。
2) 写请求发给Follower

这里也是半数节点写完就发送ack给客户端,所不同的是由接受写请求的Follower发送给客户端,而不是Leader,因为客户端最开始建立连接的是Follower。

分析:客户端监听服务器的上下线,本质是监听子节点的增删,服务器启动时会去Zookeeper集群注册(临时)子节点,使用的是create操作,而客户端监听则是get操作。注意这里的服务器和客户端对于Zookeeper集群来说都是客户端。
于是,代码主要分两部分,服务器创建子节点和客户端监听子节点。
- // 服务器
- private Zookeeper zk;
-
- public static void main(String[] args) throws Exception {
- // 创建本类(服务器类)的对象
- DistributeServer server = new DistributeServer();
-
- // 建立Zookeeper连接
- server.getConnect();
-
- // 注册,即创建子节点
- server.register(args[0]);
-
- // 服务端业务逻辑(睡觉)
- server.business();
- }
-
- private void business() throws Exception {
- Thread.sleep(Long.MAX_VALUE);
- }
-
- private void register(String hostName) throws Exception {
- String create = zk.create("/servers/" + hostName, hostName.getBytes(), ZooDef.Ids.OPEN_ACL_UNSAFE, CreateMode.EPHEMRAL_SEQUENTIAL);
- System.out.println(hostName + "is online");
- }
-
- private void getConnect() throws Exception {
- zk = new Zookeeper("xxx", 2000, new Watcher() {
- @Override
- public void process(WatchedEvent watchedEvent){
-
- }
- });
- }
- // 客户端
- private Zookeeper zk;
-
- public static void main(String[] args) throws Exception {
- // 创建本类(服务器类)的对象
- DistributeClient client = new DistributeClient();
-
- // 建立Zookeeper连接
- client.getConnect();
-
- // 注册,即创建子节点
- client.getServerList();
-
- // 客户端业务逻辑(睡觉)
- client.business();
- }
-
- private void business() throws Exception {
- Thread.sleep(Long.MAX_VALUE);
- }
-
- private void getServerList() throws Exception {
- List
children = zk.getChildren("/servers", true); -
- List
servers = new ArrayList<>; - for (String child : children) {
- byte[] data = zk.getData("/servers/" + child, false, null);
- servers.add(new String(data));
- }
-
- System.out.println(servers);
- }
-
- private void getConnect() throws Exception {
- zk = new Zookeeper("xxx", 2000, new Watcher() {
- @Override
- public void process(WatchedEvent watchedEvent){
- getServerList();
- }
- });
- }
验证时,可以先验证客户端功能,服务端可以先用create -e -s 来代替,如果客户端功能ok,再继续验证服务端功能。

分析:进程用客户端表示,每个客户端进程会去Zookeeper中创建一个临时带序号的子节点,如果子节点序号最小,则表示获取到锁,否则监听前一个序号更小的节点,持有锁执行完业务之后,会删除节点,表示释放锁,后面的节点/进场即可获取到锁。

- private Zookeeper zk;
- private String waitPath;
- private String currentNode;
- private CountDownLatch connectLatch = new CountDownLatch(1);
- private CountDownLatch waitLatch = new CountDownLatch(1);
-
- public DistributeClient() throws Exception {
- // 创建本类(服务器类)的对象
- DistributeClient client = new DistributeClient();
-
- // 建立Zookeeper连接
- getConnect();
-
- connectLatch.await();
- }
-
-
- // 加锁,创建临时节点,并判断是否是序号最小的节点,如果是则获取到锁,处理业务,如果不是,则监听前一个序号较小的节点
- public void lock() throws Exception {
- // currentNode是全路径名
- String currentNode = zk.create("/locks/seq-", null, ZooDefs.Ids.OPEN_ACL_UNSAGE, CreateMode.EPHEMETAL_SEQUENTIAL);
-
- List
children = zk.getChildren("locks", false); - if (children.size() == 1) {
- return;
- } else {
- Collections.sort(children);
-
- String thisNode = currentNode.substring("/locks/".length());
- int index = children.indexOf(thisNode);
- if (index == -1) {
- System.out.println("数据异常");
- } else if (index == 0) {
- return;
- } else {
- // 监听前一个节点
- waitPath = "/locks/" + children.get(index -1);
- zk.getData(waitPath, true, null);
-
- waitLatch.await();
- }
- }
-
- }
-
- public void unlock() throws Exception {
- zk.delete(currentNode, -1);
- }
-
- private void getConnect() throws Exception {
- zk = new Zookeeper("xxx", 2000, new Watcher() {
- @Override
- public void process(WatchedEvent watchedEvent) {
- if (watchedEvent.getType() == Event.KeeperState.SyncConnected) {
- connectLatch.countDown();
- }
-
- if (watchedEvent.getType() == Event.EventType.NodeDeleted && Event.getPath.equals(waitPath)) {
- waitLatch.countDown();
- }
- }
- });
- }
测试步骤:建立两个线程,每个线程起一个客户端去加锁解锁(加日志打印),加锁解锁之间有睡眠,运行这两个线程,可以看到最终只有1个客户端去持有锁
上述分布式锁的案例中,有如下缺点:
1)会话印布链接,需要自己使用CountDownLatch处理
2)监听需要重复注册
3)代码较复杂
4)不支持多节点删除与创建
- <dependency>
- <groupId>org.apache.curatorgroupId>
- <artifactId>curator-frameworkartifactId>
- <version>4.3.0version>
- dependency>
- <dependency>
- <groupId>org.apache.curatorgroupId>
- <artifactId>curator-recipesartifactId>
- <version>4.3.0version>
- dependency>
- <dependency>
- <groupId>org.apache.curatorgroupId>
- <artifactId>curator-clientartifactId>
- <version>4.3.0version>
- dependency>
- public static void main(String[] args) {
- // 获取分布式锁1
- InterProcessMutex lock1 = new InterProcessMutex(getCuratorFramework, "/locks");
-
- // 获取分布式锁2
- InterProcessMutex lock2 = new InterProcessMutex(getCuratorFramework, "/locks");
-
- // 启动两个线程,分别加锁释放锁,该锁可重入
- // 加锁: lock1.acquire(); 释放锁: lock1.release();
- }
-
- private static CuratorFramework getCuratorFramework() {
- ExponentialBackoffRetry retry = new ExponentialBackoffRetry(3000, 3);
-
- CuratorFramework client = CuratorFrameworkFactory.builder().connectString("xxx").connectionTimeoutMs(2000).sessionTimeoutMs(2000).retryPolicy(retry).build();
-
- client.start();
- System.out.println("客户端启动成功");
-
- return client;
- }
