赞
踩
下载地址: http://archive.apache.org/dist/zookeeper/
安装版本: 3.7.0
安装包: apache-zookeeper-3.7.0-bin.tar.gz
安装目录: /opt
机器IP:
10.28.19.107
10.28.19.108
10.28.19.109
将 apache-zookeeper-3.7.0-bin.tar.gz安装包,上传至 /opt目录
分别在3台机器上执行下面步骤:
cd /opt && tar -xf apache-zookeeper-3.7.0-bin.tar.gz mv apache-zookeeper-3.7.0-bin zookeeper mkdir /opt/zookeeper/data cat <<EOF | tee /opt/zookeeper/conf/zoo.cfg autopurge.snapRetainCount=3 autopurge.purgeInterval=1 tickTime=2000 initLimit=10 syncLimit=5 dataDir=/opt/zookeeper/data clientPort=2181 maxClientCnxns=120 autopurge.snapRetainCount=3 autopurge.purgeInterval=24 admin.serverPort=2889 server.1=10.28.19.107:2888:3888 server.2=10.28.19.108:2888:3888 server.3=10.28.19.109:2888:3888 EOF
上面命令介绍:
在/opt目录下解压apache-zookeeper-3.7.0-bin.tar.gz并命名成zookeeper
在/opt/zookeeper目录下创建data目录,用于数据存储
在/opt/zookeeper/data目录当中创建zoo.cfg,并配置集群内容
创建myid
10.28.19.107
机器执行:
echo 1 > /opt/zookeeper/data/myid
10.28.19.108
机器执行:
echo 2 > /opt/zookeeper/data/myid
10.28.19.109
机器执行:
echo 3 > /opt/zookeeper/data/myid
指定zookeeper.out日志文件输出位置:
使用过zookeeper的小伙伴都知道,当前终端处于哪个目录,执行完zkServer.sh start命令, zookeeper.out就会写在哪个目录,下次想看zookeeper日志的时候,又忘记上次在哪执行的命令。
bin目录下的zkEnv.sh,有配置ZOO_LOG_DIR,默认就是保存在终端所在当前目录下,所以果断修改(或者可以在上面配置ZOO_LOG_DIR这个变量)
sed -i 's#ZOO_LOG_DIR="."#ZOO_LOG_DIR="${ZOOKEEPER_PREFIX}/logs"#g' /opt/zookeeper/bin/zkEnv.sh
这样日志文件将会写到zookeeper安装目录下的logs文件夹中(logs不需要创建,它会自己创建)
依次重启3台机器:
sh /opt/zookeeper/bin/zkServer.sh start
查看状态:
sh /opt/zookeeper/bin/zkServer.sh status
10.28.19.107状态:
/usr/bin/java
ZooKeeper JMX enabled by default
Using config: /opt/zookeeper/bin/…/conf/zoo.cfg
Client port found: 2181. Client address: localhost. Client SSL: false.
Mode: leader
10.28.19.108状态:
/usr/bin/java
ZooKeeper JMX enabled by default
Using config: /opt/zookeeper/bin/…/conf/zoo.cfg
Client port found: 2181. Client address: localhost. Client SSL: false.
Mode: follower
10.28.19.109状态:
/usr/bin/java
ZooKeeper JMX enabled by default
Using config: /opt/zookeeper/bin/…/conf/zoo.cfg
Client port found: 2181. Client address: localhost. Client SSL: false.
Mode: follower
浏览器访问zookeeper 管理控制台:
http://10.28.19.107:2889/commands
http://10.28.19.108:2889/commands
http://10.28.19.109:2889/commands
注意3台机器的防火墙有没有关,或者指定开启下这几个端口
zookeeper常用命令
单节点连接:
./zkCli.sh -server ip:port
集群连接:
./zkCli.sh -server zk1:2181,zk2:2181,zk3:2181
查看所有目录:
ls /
查看指定目录:
ls /xxx
删除目录:
rmr /xxx
在日常运维 ZooKeeper 中,经常会遇到长时间无法选主,恢复时进程启动又退出,进而导致内存暴涨,CPU飙升,GC频繁,影响业务可用性,这些问题有可能和 jute.maxbuffer 的设置有关,它能够限制 Znode 大小,需要在Server端和Client端合理设置,否则有可能引起异常。
查看zkEnv.sh脚本文件可以看到我们可以通过配置java.env文件来自定义设置jvm内存参数,jute.maxbuffer可以一并设置。
配置java.env:
cat > /opt/zookeeper/conf/java.env << EOF
export JVMFLAGS="-Xms1024m -Xmx2048m -Djute.maxbuffer=204800000 $JVMFLAGS"
EOF
自Zookeeper-3.4.0版本开始,就提供了自动清理事务日志和快照日志的功能
由于这些日志是直接落入当前磁盘的,所以长期以往,磁盘肯定会被占满,导致zookeeper服务无法正常提供。
配置的方式很简单,就是在zoo.cfg中添加以下两个配置即可,示例如下:
# 保存3个快照,3个日志文件
autopurge.snapRetainCount=3
# 间隔1个小时执行一次清理
autopurge.purgeInterval=1
autopurge.snapRetainCount
指定的是最多保留几个日志文件
autopurge.purgeInterval
指定的是多久去清理一次
需要注意的是:这个配置默认是不开启的,所以需要我们手动添加。
当然,也可以使用zk提供的清除命令来清理:
sh /opt/zookeeper/bin/zkCleanup.sh -n 20
(20代表保留快照日志的数量,不能小于配置的autopurge.snapRetainCount):
clientPort | 客户端连接server的端口,即对外服务端口,一般设置为2181 |
---|---|
dataDir | 存储快照文件snapshot的目录。默认情况下,事务日志也会存储在这里。建议同时配置参数dataLogDir, 事务日志的写性能直接影响zk性能。 |
tickTime | ZK中的一个时间单元。ZK中所有时间都是以这个时间单元为基础,进行整数倍配置的。例如,session的最小超时时间是2*tickTime。 |
dataLogDir | 事务日志输出目录。尽量给事务日志的输出配置单独的磁盘或是挂载点,这将极大的提升ZK性能。 (No Java system property) |
globalOutstandingLimit | 最大请求堆积数。默认是1000。ZK运行的时候, 尽管server已经没有空闲来处理更多的客户端请求了,但是还是允许客户端将请求提交到服务器上来,以提高吞吐性能。当然,为了防止Server内存溢出,这个请求堆积数还是需要限制下的。 (Java system property:zookeeper.globalOutstandingLimit. ) |
preAllocSize | 预先开辟磁盘空间,用于后续写入事务日志。默认是64M,每个事务日志大小就是64M。如果ZK的快照频率较大的话,建议适当减小这个参数。(Java system property:zookeeper.preAllocSize ) |
snapCount | 每进行snapCount次事务日志输出后,触发一次快照(snapshot), 此时,ZK会生成一个snapshot.文件,同时创建一个新的事务日志文件log.。默认是100000.(真正的代码实现中,会进行一定的随机数处理,以避免所有服务器在同一时间进行快照而影响性能)(Java system property:zookeeper.snapCount ) |
traceFile | 用于记录所有请求的log,一般调试过程中可以使用,但是生产环境不建议使用,会严重影响性能。(Java system property:? requestTraceFile ) |
maxClientCnxns | 单个客户端与单台服务器之间的连接数的限制,是ip级别的,默认是60,如果设置为0,那么表明不作任何限制。请注意这个限制的使用范围,仅仅是单台客户端机器与单台ZK服务器之间的连接数限制,不是针对指定客户端IP,也不是ZK集群的连接数限制,也不是单台ZK对所有客户端的连接数限制。指定客户端IP的限制策略,这里有一个patch,可以尝试一下:http://rdc.taobao.com/team/jm/archives/1334(No Java system property) |
clientPortAddress | 对于多网卡的机器,可以为每个IP指定不同的监听端口。默认情况是所有IP都监听 clientPort 指定的端口。 New in 3.3.0 |
minSessionTimeoutmaxSessionTimeout | Session超时时间限制,如果客户端设置的超时时间不在这个范围,那么会被强制设置为最大或最小时间。默认的Session超时时间是在2 * tickTime ~ 20 * tickTime 这个范围 New in 3.3.0 |
fsync.warningthresholdms | 事务日志输出时,如果调用fsync方法超过指定的超时时间,那么会在日志中输出警告信息。默认是1000ms。(Java system property: fsync.warningthresholdms )New in 3.3.4 |
autopurge.purgeInterval | 在上文中已经提到,3.4.0及之后版本,ZK提供了自动清理事务日志和快照文件的功能,这个参数指定了清理频率,单位是小时,需要配置一个1或更大的整数,默认是0,表示不开启自动清理功能。(No Java system property) New in 3.4.0 |
autopurge.snapRetainCount | 这个参数和上面的参数搭配使用,这个参数指定了需要保留的文件数目。默认是保留3个。(No Java system property) New in 3.4.0 |
electionAlg | 在之前的版本中, 这个参数配置是允许我们选择leader选举算法,但是由于在以后的版本中,只会留下一种“TCP-based version of fast leader election”算法,所以这个参数目前看来没有用了,这里也不详细展开说了。(No Java system property) |
initLimit | Follower在启动过程中,会从Leader同步所有最新数据,然后确定自己能够对外服务的起始状态。Leader允许F在 initLimit 时间内完成这个工作。通常情况下,我们不用太在意这个参数的设置。如果ZK集群的数据量确实很大了,F在启动的时候,从Leader上同步数据的时间也会相应变长,因此在这种情况下,有必要适当调大这个参数了。(No Java system property) |
syncLimit | 在运行过程中,Leader负责与ZK集群中所有机器进行通信,例如通过一些心跳检测机制,来检测机器的存活状态。如果L发出心跳包在syncLimit之后,还没有从F那里收到响应,那么就认为这个F已经不在线了。注意:不要把这个参数设置得过大,否则可能会掩盖一些问题。(No Java system property) |
leaderServes | 默认情况下,Leader是会接受客户端连接,并提供正常的读写服务。但是,如果你想让Leader专注于集群中机器的协调,那么可以将这个参数设置为no,这样一来,会大大提高写操作的性能。(Java system property: zookeeper. leaderServes )。 |
server.x=[hostname]:nnnnn[:nnnnn] | 这里的x是一个数字,与myid文件中的id是一致的。右边可以配置两个端口,第一个端口用于F和L之间的数据同步和其它通信,第二个端口用于Leader选举过程中投票通信。 (No Java system property) |
group.x=nnnnn[:nnnnn]weight.x=nnnnn | 对机器分组和权重设置,可以 参见这里(No Java system property) |
cnxTimeout | Leader选举过程中,打开一次连接的超时时间,默认是5s。(Java system property: zookeeper. cnxTimeout ) |
zookeeper.DigestAuthenticationProvider.superDigest | ZK权限设置相关,具体参见 《 使用super 身份对有权限的节点进行操作 》 和 《 ZooKeeper 权限控制 》 |
skipACL | 对所有客户端请求都不作ACL检查。如果之前节点上设置有权限限制,一旦服务器上打开这个开头,那么也将失效。(Java system property: zookeeper.skipACL ) |
forceSync | 这个参数确定了是否需要在事务日志提交的时候调用 FileChannel .force来保证数据完全同步到磁盘。(Java system property: zookeeper.forceSync ) |
jute.maxbuffer | 每个节点最大数据量,是默认是1M。这个限制必须在server和client端都进行设置才会生效。(Java system property: jute.maxbuffer ) |
CentOS8搭建nfs服务
Kubernetes 1.25.4版本安装
kubeasz安装kubernetes1.25.5
k8s一键安装redis单机版
k8s一键安装mysql8单机版
k8s部署springboot应用
Docker安装及学习
Docker制作springboot运行应用镜像
Docker制作Java8环境镜像
Docker安装Mysql5.7.31
Docker安装Mysql8.1.0
Elasticsearch单机版本安装
Elasticsearch集群安装
ELK安装
Docker安装ELK
zookeeper集群安装
Nginx日志切割
RabbitMQ集群安装
springboot集成prometheus+grafana
windows11安装android应用
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。