当前位置:   article > 正文

Elasticsearch——集群搭建_cluster.initial_master_nodes

cluster.initial_master_nodes

基本概念

比如有一个索引有3个主分片和3个副本分片,目前有3台服务器,那么主分片以及副本分片会有ES自己内部去分配具体哪个分片在哪台服务器上。同一个主分片和副本分片不会同时存在于同一台服务器节点,这是不允许的,因为一旦宕机,那么这个分片里的数据就都丢失了。

搭建集群

从原先的ES虚拟机克隆三台机器,然后进入到ES的data目录下删除nodes文件

同时修改三台es配置的cluster.name

再将node.name分别改为es-node1,es-node2,es-node3

为三台ES添加如下配置:

# 主节点,true代表在未来可能成为主节点,false就不会
node.master: true
# 数据节点,主要针对文档的处理(增删改查)
node.data: true
  • 1
  • 2
  • 3
  • 4


为三台ES配置集群的IP
discovery.seed_hosts
cluster.initial_master_nodes,这个配置不用改动,因为这是默认初始化的一台主节点,就是cluster1

查看配置的信息

more elasticsearch.yml  | grep ^[^#]
  • 1


启动三台ES
可以在cluster1中看到日志的输出,cluster2和cluster3加入了集群

通过可视化工具可以查看当前集群情况,标记★的表示主节点。

集群脑裂


集群发生脑裂是由于原先master发送宕机之后,重新选举一台master之后,宕机的master重新恢复,单独成为了一个不完整的集群,也就是一个集群中出现了两个master。
造成这个问题的原因是由于 最小投票人数(discovery.zen.minimum_master_nodes) 导致的,该配置默认值是1,所以宕机的master默认就是选举中的一个,所以他恢复之后成为了master。
discovery.zen.minimum_master_nodes = (N/2)+1
N的值是由ES中的node.master:true所决定的,只有这个配置为true,在算作一个基数。

这个问题在ES 7.X版本之前存在,7.X之后这个配置项已移除,选举都交由ES来完成。

文档读写原理

写原理

  1. 比如请求命中集群中的某一台节点,那么这个节点就被认为是ES集群中的协调节点(用户接收用户请求);
  2. ES内部根据算法(hash算法)去决定本次操作的数据要写到那个分片中,起到一个路由转发的作用;
  3. 主分片写入数据之后,把数据同步给副本分片;
  4. 副本分片也写入完毕之后,把请求回给协调节点;
  5. 协调节点接收到内部处理完毕之后,响应客户端。
读原理

  1. 同样请求也是落到某一台节点上,这个节点成为协调节点;
  2. ES根据内部算法(hash算法)去匹配到应该到那个主分片(副本分片)读取数据;
  3. 数据读取完毕之后,告知协调节点;
  4. 响应客户端。
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/知新_RL/article/detail/126678
推荐阅读
相关标签
  

闽ICP备14008679号