当前位置:   article > 正文

es系列:es集群部署_elasticsearch did not exit normally

elasticsearch did not exit normally

下载

 

  1. https://www.elastic.co/cn/downloads/elasticsearch
  2. 下载你需要的版本

准备三台Linux系统

  1. 192.168.28.129
  2. 192.168.28.130
  3. 192.168.29.131

创建es帐号

Elasticsearch不能在 root 用户下启动,我们需要在三台机器上分别创建一个普通用户:

  1. # 创建elastic用户
  2. useradd elastic
  3. # 设置用户密码
  4. passwd elastic
  5. # 切换到elastic用户
  6. su elastic
  7. 这样创建的用户的目录默认在/home/elastic 下面

关于创建用户的:linux:用户,用户组_zhuchunyan_aijia的博客-CSDN博客Linux/Unix 是多用户多任务操作系统,所有的文件皆有其拥有者(Owner)。利用 chown命令 可以将文件的拥有者加以改变。一般来说,这个命令只能由系统管理者(root)使用,一般用户没有权限来改变别人的文件的拥有者,也没有权限可以将自己的文件的拥有者改设为别人。只有系统管理者(root)才有这样的权限。方法/步骤chown更改文件或目录的所有者 注意:所有者,必须存在...https://blog.csdn.net/zhuchunyan_aijia/article/details/104156407 

创建目录 

分别在三台机器上的 /home/elastic/ 目录下创建elasticsearch文件夹,然后在elasticsearch文件夹下分别创建data、logs文件夹。 用的elastic登陆创建哟

在生产环境下我们要把Elasticsearch生成的索引文件数据存放到自定义的目录下
data:存储Elasticsearch索引文件数据
logs:存储日志文件

解压缩 

随便那一台机器将下载的elasticsearch-7.17.0-linux-x86_64.tar.gz 移动 /home/elastic/下 

解压缩:  tar zxvf  elasticsearch-7.17.0-linux-x86_64.tar.gz

修改elasticsearch.yml

 vi   config/elasticsearch.yml

  1. cluster.name: my-application
  2. node.name: node-1
  3. path.data: /home/elastic/elasticsearch/data
  4. path.logs: /home/elastic/elasticsearch/logs
  5. network.host: 192.168.28.129
  6. http.port: 9200
  7. discovery.seed_hosts: ["192.168.28.129", "192.168.28.130", "192.168.28.131"]
  8. cluster.initial_master_nodes: ["node-1", "node-2", "node-3"]
  9. node.master: true
  10. node.data: false
  11. node.ingest: false
  12. search.remote.connect: false

主要修改如下几处配置:

  1. cluster.name:集群的名称,集群中所有节点的 cluster.name 的值必须要相同。
  2. node.name:集群中每个Elasticsearch的节点名称,不可以重复。
  3. path.data:设置存放Elasticsearch索引文件数据的路径。
  4. path.logs:设置存放日志文件的路径。
  5. network.host:Elasticsearch绑定的IP,外界可以通过这个IP访问到当前Elasticsearch节点,一般配配置当前系统的IP,或者 0.0.0.0 (任何地址都能访问到)。
  6. http.port:当前启动Elasticsearch的端口号,一般默认 9200 即可,当然你也可以修改
  7. discovery.seed_hosts:配置所有Elasticsearch节点绑定的IP地址。
  8. cluster.initial_master_nodes:配置那些节点可以有资格被选为主节点。node.master=true的 
  9. xpack.monitoring.collection.enabled:收集监控数据默认为false不收集监控数据。

不过不配置默认是 如下

 node.master: true
node.data: true
node.ingest: false
search.remote.connect: false
 

参考如下:

https://blog.csdn.net/zhuchunyan_aijia/article/details/128720341

可以配置3个master节点, 其余都是data 节点. 也不需要ingest 和 协调节点

其他2台机器配置

我们已经配置好一台Elasticsearch节点了接下来我们只需要把这台配置好的Elasticsearch复制到另外两台机器中在做一些简单的修改就就可以了。

我们使用 scp 命令复制当前配置好的Elasticsearch到另外两台机器中:

  1. scp -r /home/elastic/elasticsearch/elasticsearch
  2. elastic@192.168.28.130:/home/elastic/elasticsearch/
  3. scp -r /home/elastic/elasticsearch/elasticsearch
  4. elastic@192.168.28.131:/home/elastic/elasticsearch/

 分别在两台机器中修改几处配置:
192.168.28.130 这台机器修改elasticsearch.yml配置文件如下

  1. node.name: node-2
  2. network.host: 192.168.28.130

启动Elasticsearch

从命令行运行Elasticsearch

Elasticsearch可以从命令行启动,如下所示: 

./bin/elasticsearch

作为后台启动

要将Elasticsearch作为后台程序运行,请在命令中指定-d,然后使用-p将进程ID记录在文件中:

./bin/elasticsearch -d -p pid

 分别在三台机器上启动Elasticsearch,启动过程中建议单个机器启动成功后在启动另一台。

启动一般都会报错处理

  1. bootstrap check failure [1] of [2]: max file descriptors [4096] for elasticsearch process is too low, increase to at least [65535]
  2. bootstrap check failure [2] of [2]: max virtual memory areas vm.max_map_count [65530] is too low, increase to at least [262144]
  3. ERROR: Elasticsearch did not exit normally - check the logs at /home/elastic/logs/xxxxx

 以下配置需要在root帐号下处理

Linux打开文件数限制:报too many open files_zhuchunyan_aijia的博客-CSDN博客一、说明有的时候程序或者数据运行时会报too many open files,根本原因就是打开的文件超过了系统限制的数量。二、查询1、查询某个进程已经开启的文件句柄lsof -p 进程pid | wc -l查看所有进程各自打开的文件数lsof -n|awk ‘{print $2}’|sort|uniq -c|sort -nr|more2、查看当前操作系统已经打开的文件总量cat /proc/sys/fs/file-nr注:第一个值是已开启的,第二个值是分配但未使用,第三个值是总限制数https://blog.csdn.net/zhuchunyan_aijia/article/details/122636355

修改linux 最大进程数_zhuchunyan_aijia的博客-CSDN博客_linux修改用户最大进程数https://www.cnblogs.com/xinlibao/p/9952461.html一、查看用户打开到最大进程数ulimit -amax user processes (-u) #系统限制某用户下最多可以运行多少进程过线程二、这些值到由来root 账号下 ulimit -u 出现到 max user processes 的值 默认是 # cat /proc...https://blog.csdn.net/zhuchunyan_aijia/article/details/102918001 总结修改如下:

1.  /etc/security/limits.conf

  1. * soft nofile 65535
  2. * hard nofile 65535
  3. elastic soft memlock unlimited
  4. elastic hard memlock unlimited

 2. /etc/security/limits.d/20-nproc.conf

  1. * soft nproc 65535
  2. root soft nproc unlimited

3. /etc/sysctl.conf 

  1. vm.max_map_count = 655360
  2. vm.swappiness=1
  3. kernel.pid_max = 65535
  4. 保存后执行:sysctl -p 生效

检查集群 

接下来我们来检查一下集群是否已经形成,给三台服务器中的任意一台发送http请求:

http://192.168.28.129:9200/_cat/health?v

cluster:显示的是当前集群的名称
status:显示的是 green 表示当前集群是健康的状态
node.total:显示 3 表示当前集群有三个节点

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/笔触狂放9/article/detail/126593
推荐阅读
相关标签
  

闽ICP备14008679号