当前位置:   article > 正文

分布式框架(二):Zookeeper_zk 连接数修改

zk 连接数修改

Zookeeper

ZooKeeper本质上是一个分布式的小文件存储系统(Zookeeper=文件系统+监听机制)。提供基于类似于文件系统的目录树方式的数据存储,并且可以对树中的节点进行有效管理,从而用来维护和监控存储的数据的状态变化。通过监控这些数据状态的变化,从而可以达到基于数据的集群管理、统一命名服务、分布式配置管理、分布式消息队列、分布式锁、分布式协调等功能。

Zookeeper从设计模式角度来理解:是一个基于观察者模式设计的分布式服务管理框架,它负责存储和管理大家都关心的数据,然后接受观察者的注册,一旦这些数据的状态发生变化,Zookeeper 就将负责通知已经在Zookeeper上注册的那些观察者做出相应的反应。

安装:

下载地址:https://zookeeper.apache.org/releases.html

修改配置文件: cp conf/zoo_sample.cfg conf/zoo.cfg

zoo.cfg

dataDir=/data
dataLogDir=/datalog
#zookeeper时间配置中的基本单位(毫秒)
tickTime=2000
#允许follower初始化连接到leader最大时长, 他表示tickTime时间的倍数 tickTime * initLimit
initLimit=100
#允许follower和leader数据同步最大时长,他表示tickTime时间的倍数 tickTime * syncLimit
syncLimit=5
clientPort=2181
#单个客户端和zookeeper最大并发连接数
maxClientCnxns=60
#保存快照数量,之外的会被清除
autopurge.snapRetainCount=5
#自动触发清除任务时间间隔,小时单位,默认0,表示不清除
autopurge.purgeInterval=24
server.1=localhost:2888:3888;2181
standaloneEnabled=true
admin.enableServer=true
#Zookeeper四字命令
4lw.commands.whitelist=*
quorumListenOnAllIPs=true
preAllocSize=32M
globalOutstandingLimit=100000
snapCount=50000
minSessionTimeout=4000
maxSessionTimeout=40000
#ttl
extendedTypesEnabled=true 
tcpKeepAlive=true
ipReachableTimeout=0
cnxTimeout=3
electionAlg=3
#忽略ACL验证
skipACL=yes
forceSync=yes
fsync.warningthresholdms=50
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36

bin/zkServer.sh start conf/zoo.cfg

bin/zkServer.sh status

bin/zkCli.sh

bin/zkCli.sh -server ip:port

常见cli命令: https://zookeeper.apache.org/doc/r3.8.0/zookeeperCLI.html

ZooKeeper数据结构

ZooKeeper 数据模型的结构与 Unix 文件系统很类似,整体上可以看作是一棵树,每个节点称做一个 ZNode

ZooKeeper的数据模型是层次模型,层次模型常见于文件系统

层次模型和key-value模型是两种主流的数据模型

ZooKeeper使用文件系统模型主要基于以下两点考虑:

  1. 文件系统的树形结构便于表达数据之间的层次关系
  2. 文件系统的树形结构便于为不同的应用分配独立的命名空间(namespace)

ZooKeeper的层次模型称作Data Tree,Data Tree的每个节点叫作Znode。不同于文件系统,每个节点都可以保存数据,每一个 ZNode 默认能够存储 1MB 的数据,每个 ZNode 都可以通过其路径唯一标识,每个节点都有一个版本(version),版本从0开始计数。

节点分类 (持久、临时、顺序、容器、ttl)

  1. 持久节点(PERSISTENT): 这样的znode在创建之后即使发生ZooKeeper集群宕机或者client宕机也不会丢失。
  2. 临时节点(EPHEMERAL ): client宕机或者client在指定的timeout时间内没有给ZooKeeper集群发消息,这样的znode就会消失。
  3. 持久顺序节点(PERSISTENT_SEQUENTIAL): znode除了具备持久性znode的特点之外,znode的名字具备顺序性。
  4. 临时顺序节点(EPHEMERAL_SEQUENTIAL): znode除了具备临时性znode的特点之外,zorde的名字具备顺序性。
  5. Container节点 (3.5.3版本新增):Container容器节点,当容器中没有任何子节点,该容器节点会被zk定期删除(定时任务默认60s 检查一次)。 和持久节点的区别是 ZK 服务端启动后,会有一个单独的线程去扫描,所有的容器节点,当发现容器节点的子节点数量为 0 时,会自动删除该节点。可以用于 leader 或者锁的场景中。
  6. TTL节点: 带过期时间节点,默认禁用,需要在zoo.cfg中添加 extendedTypesEnabled=true 开启。 注意:ttl不能用于临时节点
#创建持久节点
create /servers  xxx
#创建临时节点
create -e /servers/host  xxx
#创建临时有序节点
create -e -s /servers/host  xxx
#创建容器节点
create -c /container xxx
# 创建ttl节点
create -t 10 /ttl
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10

节点状态信息

get -s /user
在这里插入图片描述

  • cZxid :Znode创建的事务id。
  • ctime:节点创建时的时间戳。
  • mZxid :Znode被修改的事务id,即每次对znode的修改都会更新mZxid。
    对于zk来说,每次的变化都会产生一个唯一的事务id,zxid(ZooKeeper Transaction Id),通过zxid,可以确定更新操作的先后顺序。例如,如果zxid1小于zxid2,说明zxid1操作先于zxid2发生,zxid对于整个zk都是唯一的,即使操作的是不同的znode。
  • mtime:节点最新一次更新发生时的时间戳.
  • pZxid: 表示该节点的子节点列表最后一次修改的事务ID,添加子节点或删除子节点就会影响子节点列表,但是修改子节点的数据内容则不影响该ID(注意: 只有子节点列表变更了才会变更pzxid,子节点内容变更不会影响pzxid)
  • cversion :子节点的版本号。当znode的子节点有变化时,cversion 的值就会增加1。
  • dataVersion:数据版本号,每次对节点进行set操作,dataVersion的值都会增加1(即使设置的是相同的数据),可有效避免了数据更新时出现的先后顺序问题。
  • ephemeralOwner:如果该节点为临时节点, ephemeralOwner值表示与该节点绑定的session id。如果不是, ephemeralOwner值为0(持久节点)。
    在client和server通信之前,首先需要建立连接,该连接称为session。连接建立后,如果发生连接超时、授权失败,或者显式关闭连接,连接便处于closed状态, 此时session结束。
  • dataLength : 数据的长度
  • numChildren :子节点的数量(只统计直接子节点的数量)

监听通知(watcher)机制

一个Watch事件是一个一次性的触发器,当被设置了Watch的数据发生了改变的时候,则服务器将这个改变发送给设置了Watch的客户端,以便通知它们。

Zookeepeer 3.6添加addWatch 机制支持永久触发器

Zookeeper采用了Watcher机制实现数据的发布订阅功能,多个订阅者可同时监听某一特定主题对象,当该主题对象的自身状态发生变化时例如节点内容改变、节点下的子节点列表改变等,会实时、主动通知所有订阅者。

watcher机制事件上与观察者模式类似,也可看作是一种观察者模式在分布式场景下的实现方式。

watcher的过程:

  • 客户端向服务端注册watcher
  • 服务端事件发生触发watcher
  • 客户端回调watcher得到触发事件情况

注意:
Zookeeper 3.6之前中的watch机制,Zookeeper 3.6之后添加addWatch永久机制;
必须客户端先去服务端注册监听,这样事件发送才会触发监听,通知给客户端。

支持的事件类型:

  • None: 连接建立事件
  • NodeCreated: 节点创建
  • NodeDeleted: 节点删除
  • NodeDataChanged:节点数据变化
  • NodeChildrenChanged:子节点列表变化
  • DataWatchRemoved:节点监听被移除
  • ChildWatchRemoved:子节点监听被移除
特性说明
一次性触发watcher是一次性的,一旦被触发就会移除,再次使用时需要重新注册
永久性触发addWatch [-m mode] path Zookeeper 3.6.0版本新增的功能,支持PERSISTENT和PERSISTENT_RECURSIVE(递归)
客户端顺序回调watcher回调是顺序串行执行的,只有回调后客户端才能看到最新的数据状态。一个watcher回调逻辑不应该太多,以免影响别的watcher执行
轻量级WatchEvent是最小的通信单位,结构上只包含通知状态、事件类型和节点路径,并不会告诉数据节点变化前后的具体内容
时效性watcher只有在当前session彻底失效时才会无效,若在session有效期内快速重连成功,则watcher依然存在,仍可接收到通知;
#监听节点数据的变化
get -w path 
stat -w path
#监听子节点增减的变化 
ls -w path 
  • 1
  • 2
  • 3
  • 4
  • 5

Zookeeper 节点特性总结

  1. 同一级节点 key 名称是唯一的
  2. 创建节点时,必须要带上全路径
  3. session 关闭,临时节点清除
  4. 自动创建顺序节点
  5. watch 机制,监听节点变化 (监听事件被单次触发后,事件就失效了)
  6. addWatch 机制,永久性监听
  7. delete 命令只能一层一层删除 (新版本可以通过deleteall命令递归删除)

应用场景

ZooKeeper适用于存储和协同相关的关键数据,不适合用于大数据量存储。

有了上述众多节点特性,使得 zookeeper 能开发不出不同的经典应用场景,比如:

  • 注册中心
  • 数据发布/订阅(常用于实现配置中心)
  • 负载均衡
  • 命名服务
  • 分布式协调/通知 (master-worker) hbase/kafka
  • 集群管理
  • Master选举
  • 分布式锁
  • 分布式队列

ACL权限控制

zookeeper 的 ACL(Access Control List,访问控制表)权限在生产环境是特别重要的,ACL 权限可以针对节点设置相关读写等权限,保障数据安全性。

ACL 构成

zookeeper 的 acl 通过[scheme:id:permissions]来构成权限列表。

  • scheme:授权的模式,代表采用的某种权限机制,包括 world、auth、digest、ip、super 几种。

  • id:授权对象,代表允许访问的用户。如果我们选择采用 IP 方式,使用的授权对象可以是一个 IP 地址或 IP 地址段;而如果使用 Digest 或 Super 方式,则对应于一个用户名。如果是 World 模式,是授权系统中所有的用户。

  • permissions:授权的权限,权限组合字符串,由 cdrwa 组成,其中每个字母代表支持不同权限, 创建权限 create©、删除权限 delete(d)、读权限 read®、写权限 write(w)、管理权限admin(a)。

模式:

  • world : anyone
  • ip : IP地址认证方式
  • auth : 添加认证的用户进行认证
  • digest : 用户:密码方式验证

权限类型: cdrwa

  • 创建权限 create©
  • 删除权限 delete(d)
  • 读权限 read®
  • 写权限 write(w)
  • 管理权限admin(a)

授权命令:

  • getAcl : getAcl path
  • setAcl : setAcl path acl
  • create : create path data acl
  • addAuth : addAuth scheme auth
[zk: xxxxx(CONNECTED) 2] create /test-acl
Created /test-acl
[zk: xxxxx(CONNECTED) 3] getAcl /test-acl
'world,'anyone
: cdrwa
[zk: xxxxx(CONNECTED) 4] setAcl /test-acl world:anyone:cdwa
[zk: xxxxx(CONNECTED) 5]
[zk: xxxxx(CONNECTED) 5] get /test-acl
Insufficient permission : /test-acl
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9

auth授权模式:

  • 创建用户 addauth digest mx:123456
  • 设置权限 setAcl /name auth:mx:123456:cdrwa
  • 使用 addauth digest mx:123456

digest授权模式:

  • 加密
    echo -n mx:mx123456 | openssl dgst -binary -sha1 | openssl base64
    setAcl /name auth:mx:a7s3LdLWLFDmav1etsvHGE8FOoI=:cdrwa
  • 使用 addauth digest mx:mx123456

IP授权模式:

  • setAcl /node-ip ip:192.168.109.128:cdwra
  • create /node-ip data ip:192.168.109.128:cdwra

Super 超级管理员模式:

  • 在启动脚本上通过添加JVM 参数开启: -Dzookeeper.DigestAuthenticationProvider.superDigest=admin:<base64encoded(SHA1(123456))

Zookeeper 集群

集群角色

  • Leader: 领导者。
    事务请求(写操作)的唯一调度者和处理者,保证集群事务处理的顺序性;集群内部各个服务器的调度者。对于create、setData、delete等有写操作的请求,则要统一转发给leader处理,leader需要决定编号、执行操作,这个过程称为事务。
  • Follower: 跟随者
    处理客户端非事务(读操作)请求(可以直接响应),转发事务请求给Leader;参与集群Leader选举投票。
  • Observer: 观察者
    对于非事务请求可以独立处理(读操作),对于事务性请求会转发给leader处理。Observer节点接收来自leader的inform信息,更新自己的本地存储,不参与提交和选举投票。通常在不影响集群事务处理能力的前提下提升集群的非事务处理能力。
  • Observer应用场景:
    提升集群的读性能。因为Observer和不参与提交和选举的投票过程,所以可以通过往集群里面添加observer节点来提高整个集群的读性能。
    跨数据中心部署。 比如需要部署一个北京和香港两地都可以使用的zookeeper集群服务,并且要求北京和香港客户的读请求延迟都很低。解决方案就是把香港的节点都设置为observer。

leader节点可以处理读写请求,follower只可以处理读请求。follower在接到写请求时会把写请求转发给leader来处理。

Zookeeper数据一致性保证

全局可线性化(Linearizable )写入∶先到达leader的写请求会被先处理,leader决定写请求的执行顺序。

客户端FIFO顺序∶来自给定客户端的请求按照发送顺序执行。

三节点Zookeeper集群搭建

三台虚拟机 zoo.cfg 文件末尾添加配置

#三台虚拟机 zoo.cfg 文件末尾添加配置
server.1=192.168.1x.x:2888:3888
server.2=192.168.1x.x:2888:3888
server.3=192.168.1x.x:2888:3888

分别修改myid文件 vim myid (1、2、3)

Zookeeper四字命令

zookeeper 支持某些特定的四字命令与其交互,用户获取 zookeeper 服务的当前状态及相关信息,用户在客户端可以通过 telenet 或者 nc(netcat) 向 zookeeper 提交相应的命令。

安装 nc 命令: yum install nc

四字命令格式:echo [command] | nc [ip] [port]

https://zookeeper.apache.org/doc/current/zookeeperAdmin.html#sc_4lw

开启四字命令

  1. vim zoo.cfg 4lw.commands.whitelist=*
  2. zk的启动脚本zkServer.sh中新增放行指令 #添加VM环境变量-Dzookeeper.4lw.commands.whitelist=*

命令 demo

stat 命令用于查看 zk 的状态信息 echo stat | nc x.x.x.x 2181

Zookeeper 选举

zookeeper 的 leader 选举存在两个阶段

  • 服务器启动时 leader 选举
  • 运行过程中 leader 服务器宕机

在分析选举原理前,先介绍几个重要的参数:

  • 服务器 ID(myid):编号越大在选举算法中权重越大
  • 事务 ID(zxid):值越大说明数据越新,权重越大
  • 逻辑时钟(epoch-logicalclock):同一轮投票过程中的逻辑时钟值是相同的,每投完一次值会增加

选举状态:

  • LOOKING: 竞选状态
  • FOLLOWING: 随从状态,同步 leader 状态,参与投票
  • OBSERVING: 观察状态,同步 leader 状态,不参与投票
  • LEADING: 领导者状态
    在这里插入图片描述

服务器启动时的 leader 选举

每个节点启动的时候都 LOOKING 观望状态,接下来就开始进行选举主流程。

这里选取三台机器组成的集群为例:第一台服务器 server1启动时,无法进行 leader 选举,当第二台服务器 server2 启动时,两台机器可以相互通信,进入 leader 选举过程。

  1. 每台 server 发出一个投票,由于是初始情况,server1 和 server2 都将自己作为 leader 服务器进行投票,每次投票包含所推举的服务器myid、zxid、epoch,使用(myid,zxid)表示,此时 server1 投票为(1,0),server2 投票为(2,0),然后将各自投票发送给集群中其他机器。
  2. 接收来自各个服务器的投票。集群中的每个服务器收到投票后,首先判断该投票的有效性,如检查是否是本轮投票(epoch)、是否来自 LOOKING 状态的服务器。
  3. 分别处理投票。针对每一次投票,服务器都需要将其他服务器的投票和自己的投票进行对比,对比规则如下:
    • 优先比较 epoch
    • 检查 zxid,zxid 比较大的服务器优先作为 leader
    • 如果 zxid 相同,那么就比较 myid,myid 较大的服务器作为 leader 服务器
  4. 统计投票。每次投票后,服务器统计投票信息,判断是都有过半机器接收到相同的投票信息。server1、server2 都统计出集群中有两台机器接受了(2,0)的投票信息,此时已经选出了 server2 为 leader 节点。
  5. 改变服务器状态。一旦确定了 leader,每个服务器响应更新自己的状态,如果是 follower,那么就变更为 FOLLOWING,如果是 Leader,变更为 LEADING。此时 server3继续启动,直接加入变更自己为 FOLLOWING。

运行过程中的 leader 选举

当集群中 leader 服务器出现宕机或者不可用情况时,整个集群无法对外提供服务,进入新一轮的 leader 选举。

  1. 变更状态。leader 挂后,其他非 Oberver服务器将自身服务器状态变更为 LOOKING。
  2. 每个 server 发出一个投票。在运行期间,每个服务器上 zxid 可能不同。
  3. 处理投票。规则同启动过程。
  4. 统计投票。与启动过程相同。
  5. 改变服务器状态。与启动过程相同。

Zookeeper 数据同步流程

在 Zookeeper 中,主要依赖 ZAB 协议来实现分布式数据一致性。
ZAB 协议分为两部分:
消息广播
崩溃恢复

消息广播

Zookeeper 使用单一的主进程 Leader 来接收和处理客户端所有事务请求,并采用 ZAB 协议的原子广播协议,将事务请求以 Proposal 提议广播到所有 Follower 节点,当集群中有过半的Follower 服务器进行正确的 ACK 反馈,那么Leader就会再次向所有的 Follower 服务器发送commit 消息,将此次提案进行提交。这个过程可以简称为 2pc 事务提交,整个流程可以参考下图,注意 Observer 节点只负责同步 Leader 数据,不参与 2PC 数据同步过程。

在这里插入图片描述

崩溃恢复

在正常情况消息下广播能运行良好,但是一旦 Leader 服务器出现崩溃,或者由于网络原理导致 Leader 服务器失去了与过半 Follower 的通信,那么就会进入崩溃恢复模式,需要选举出一个新的 Leader 服务器。在这个过程中可能会出现两种数据不一致性的隐患,需要 ZAB 协议的特性进行避免。

  • Leader 服务器将消息 commit 发出后,立即崩溃
  • Leader 服务器刚提出 proposal 后,立即崩溃

ZAB 协议的恢复模式使用了以下策略:

  • 选举 zxid 最大的节点作为新的 leader
  • 新 leader 将事务日志中尚未提交的消息进行处理

分布式框架(一):分布式协议
https://blog.csdn.net/menxu_work/article/details/124707394

Zookeeper 可视化工具 zooinspector

github: https://github.com/zzhang5/zooinspector

编码,mac与windows编码不一样。windows是GBK,mac是UTF-8.会导致修改文件后乱码问题。

解决:ZooInspectorManagerImpl.java

1006: result.add(new String(line.getBytes("GBK"),"UTF-8"));

在这里插入图片描述
在这里插入图片描述

在这里插入图片描述

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/喵喵爱编程/article/detail/967512
推荐阅读
相关标签
  

闽ICP备14008679号