赞
踩
ZooKeeper本质上是一个分布式的小文件存储系统(Zookeeper=文件系统+监听机制)。提供基于类似于文件系统的目录树方式的数据存储,并且可以对树中的节点进行有效管理,从而用来维护和监控存储的数据的状态变化。通过监控这些数据状态的变化,从而可以达到基于数据的集群管理、统一命名服务、分布式配置管理、分布式消息队列、分布式锁、分布式协调等功能。
Zookeeper从设计模式角度来理解:是一个基于观察者模式设计的分布式服务管理框架,它负责存储和管理大家都关心的数据,然后接受观察者的注册,一旦这些数据的状态发生变化,Zookeeper 就将负责通知已经在Zookeeper上注册的那些观察者做出相应的反应。
下载地址:https://zookeeper.apache.org/releases.html
修改配置文件: cp conf/zoo_sample.cfg conf/zoo.cfg
zoo.cfg
dataDir=/data
dataLogDir=/datalog
#zookeeper时间配置中的基本单位(毫秒)
tickTime=2000
#允许follower初始化连接到leader最大时长, 他表示tickTime时间的倍数 tickTime * initLimit
initLimit=100
#允许follower和leader数据同步最大时长,他表示tickTime时间的倍数 tickTime * syncLimit
syncLimit=5
clientPort=2181
#单个客户端和zookeeper最大并发连接数
maxClientCnxns=60
#保存快照数量,之外的会被清除
autopurge.snapRetainCount=5
#自动触发清除任务时间间隔,小时单位,默认0,表示不清除
autopurge.purgeInterval=24
server.1=localhost:2888:3888;2181
standaloneEnabled=true
admin.enableServer=true
#Zookeeper四字命令
4lw.commands.whitelist=*
quorumListenOnAllIPs=true
preAllocSize=32M
globalOutstandingLimit=100000
snapCount=50000
minSessionTimeout=4000
maxSessionTimeout=40000
#ttl
extendedTypesEnabled=true
tcpKeepAlive=true
ipReachableTimeout=0
cnxTimeout=3
electionAlg=3
#忽略ACL验证
skipACL=yes
forceSync=yes
fsync.warningthresholdms=50
bin/zkServer.sh start conf/zoo.cfg
bin/zkServer.sh status
bin/zkCli.sh
bin/zkCli.sh -server ip:port
常见cli命令: https://zookeeper.apache.org/doc/r3.8.0/zookeeperCLI.html
ZooKeeper 数据模型的结构与 Unix 文件系统很类似,整体上可以看作是一棵树,每个节点称做一个 ZNode
ZooKeeper的数据模型是层次模型,层次模型常见于文件系统
层次模型和key-value模型是两种主流的数据模型
ZooKeeper使用文件系统模型主要基于以下两点考虑:
ZooKeeper的层次模型称作Data Tree,Data Tree的每个节点叫作Znode。不同于文件系统,每个节点都可以保存数据,每一个 ZNode 默认能够存储 1MB 的数据,每个 ZNode 都可以通过其路径唯一标识,每个节点都有一个版本(version),版本从0开始计数。
#创建持久节点
create /servers xxx
#创建临时节点
create -e /servers/host xxx
#创建临时有序节点
create -e -s /servers/host xxx
#创建容器节点
create -c /container xxx
# 创建ttl节点
create -t 10 /ttl
get -s /user
一个Watch事件是一个一次性的触发器,当被设置了Watch的数据发生了改变的时候,则服务器将这个改变发送给设置了Watch的客户端,以便通知它们。
Zookeepeer 3.6添加addWatch 机制支持永久触发器
Zookeeper采用了Watcher机制实现数据的发布订阅功能,多个订阅者可同时监听某一特定主题对象,当该主题对象的自身状态发生变化时例如节点内容改变、节点下的子节点列表改变等,会实时、主动通知所有订阅者。
watcher机制事件上与观察者模式类似,也可看作是一种观察者模式在分布式场景下的实现方式。
watcher的过程:
注意:
Zookeeper 3.6之前中的watch机制,Zookeeper 3.6之后添加addWatch永久机制;
必须客户端先去服务端注册监听,这样事件发送才会触发监听,通知给客户端。
特性 | 说明 |
---|---|
一次性触发 | watcher是一次性的,一旦被触发就会移除,再次使用时需要重新注册 |
永久性触发 | addWatch [-m mode] path Zookeeper 3.6.0版本新增的功能,支持PERSISTENT和PERSISTENT_RECURSIVE(递归) |
客户端顺序回调 | watcher回调是顺序串行执行的,只有回调后客户端才能看到最新的数据状态。一个watcher回调逻辑不应该太多,以免影响别的watcher执行 |
轻量级 | WatchEvent是最小的通信单位,结构上只包含通知状态、事件类型和节点路径,并不会告诉数据节点变化前后的具体内容 |
时效性 | watcher只有在当前session彻底失效时才会无效,若在session有效期内快速重连成功,则watcher依然存在,仍可接收到通知; |
#监听节点数据的变化
get -w path
stat -w path
#监听子节点增减的变化
ls -w path
deleteall
命令递归删除)ZooKeeper适用于存储和协同相关的关键数据,不适合用于大数据量存储。
有了上述众多节点特性,使得 zookeeper 能开发不出不同的经典应用场景,比如:
zookeeper 的 ACL(Access Control List,访问控制表)权限在生产环境是特别重要的,ACL 权限可以针对节点设置相关读写等权限,保障数据安全性。
zookeeper 的 acl 通过[scheme:id:permissions]
来构成权限列表。
scheme:授权的模式,代表采用的某种权限机制,包括 world、auth、digest、ip、super 几种。
id:授权对象,代表允许访问的用户。如果我们选择采用 IP 方式,使用的授权对象可以是一个 IP 地址或 IP 地址段;而如果使用 Digest 或 Super 方式,则对应于一个用户名。如果是 World 模式,是授权系统中所有的用户。
permissions:授权的权限,权限组合字符串,由 cdrwa
组成,其中每个字母代表支持不同权限, 创建权限 create©、删除权限 delete(d)、读权限 read®、写权限 write(w)、管理权限admin(a)。
模式:
权限类型: cdrwa
授权命令:
getAcl path
setAcl path acl
create path data acl
addAuth scheme auth
[zk: xxxxx(CONNECTED) 2] create /test-acl
Created /test-acl
[zk: xxxxx(CONNECTED) 3] getAcl /test-acl
'world,'anyone
: cdrwa
[zk: xxxxx(CONNECTED) 4] setAcl /test-acl world:anyone:cdwa
[zk: xxxxx(CONNECTED) 5]
[zk: xxxxx(CONNECTED) 5] get /test-acl
Insufficient permission : /test-acl
auth授权模式:
addauth digest mx:123456
setAcl /name auth:mx:123456:cdrwa
addauth digest mx:123456
digest授权模式:
echo -n mx:mx123456 | openssl dgst -binary -sha1 | openssl base64
setAcl /name auth:mx:a7s3LdLWLFDmav1etsvHGE8FOoI=:cdrwa
addauth digest mx:mx123456
IP授权模式:
setAcl /node-ip ip:192.168.109.128:cdwra
create /node-ip data ip:192.168.109.128:cdwra
Super 超级管理员模式:
-Dzookeeper.DigestAuthenticationProvider.superDigest=admin:<base64encoded(SHA1(123456))
leader节点可以处理读写请求,follower只可以处理读请求。follower在接到写请求时会把写请求转发给leader来处理。
全局可线性化(Linearizable )写入∶先到达leader的写请求会被先处理,leader决定写请求的执行顺序。
客户端FIFO顺序∶来自给定客户端的请求按照发送顺序执行。
三台虚拟机 zoo.cfg 文件末尾添加配置
#三台虚拟机 zoo.cfg 文件末尾添加配置
server.1=192.168.1x.x:2888:3888
server.2=192.168.1x.x:2888:3888
server.3=192.168.1x.x:2888:3888
分别修改myid文件 vim myid
(1、2、3)
zookeeper 支持某些特定的四字命令与其交互,用户获取 zookeeper 服务的当前状态及相关信息,用户在客户端可以通过 telenet 或者 nc(netcat) 向 zookeeper 提交相应的命令。
安装 nc 命令: yum install nc
四字命令格式:echo [command] | nc [ip] [port]
https://zookeeper.apache.org/doc/current/zookeeperAdmin.html#sc_4lw
vim zoo.cfg
4lw.commands.whitelist=*
#添加VM环境变量-Dzookeeper.4lw.commands.whitelist=*
stat 命令用于查看 zk 的状态信息 echo stat | nc x.x.x.x 2181
zookeeper 的 leader 选举存在两个阶段
在分析选举原理前,先介绍几个重要的参数:
选举状态:
每个节点启动的时候都 LOOKING 观望状态,接下来就开始进行选举主流程。
这里选取三台机器组成的集群为例:第一台服务器 server1启动时,无法进行 leader 选举,当第二台服务器 server2 启动时,两台机器可以相互通信,进入 leader 选举过程。
当集群中 leader 服务器出现宕机或者不可用情况时,整个集群无法对外提供服务,进入新一轮的 leader 选举。
在 Zookeeper 中,主要依赖 ZAB 协议来实现分布式数据一致性。
ZAB 协议分为两部分:
消息广播
崩溃恢复
Zookeeper 使用单一的主进程 Leader 来接收和处理客户端所有事务请求,并采用 ZAB 协议的原子广播协议,将事务请求以 Proposal 提议广播到所有 Follower 节点,当集群中有过半的Follower 服务器进行正确的 ACK 反馈,那么Leader就会再次向所有的 Follower 服务器发送commit 消息,将此次提案进行提交。这个过程可以简称为 2pc 事务提交,整个流程可以参考下图,注意 Observer 节点只负责同步 Leader 数据,不参与 2PC 数据同步过程。
在正常情况消息下广播能运行良好,但是一旦 Leader 服务器出现崩溃,或者由于网络原理导致 Leader 服务器失去了与过半 Follower 的通信,那么就会进入崩溃恢复模式,需要选举出一个新的 Leader 服务器。在这个过程中可能会出现两种数据不一致性的隐患,需要 ZAB 协议的特性进行避免。
ZAB 协议的恢复模式使用了以下策略:
分布式框架(一):分布式协议
https://blog.csdn.net/menxu_work/article/details/124707394
github: https://github.com/zzhang5/zooinspector
编码,mac与windows编码不一样。windows是GBK,mac是UTF-8.会导致修改文件后乱码问题。
解决:ZooInspectorManagerImpl.java
1006: result.add(new String(line.getBytes("GBK"),"UTF-8"));
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。