当前位置:   article > 正文

TDSQL 安装部署(多图预警)

tdsql-c mysql安装

墨墨导读:分布式数据库(Tencent Distributed SQL,TDSQL)是腾讯打造的一款分布式数据库产品,具备强一致高可用、全球部署架构、分布式水平扩展、高性能、企业级安全等特性,同时提供智能DBA、自动化运营、监控告警等配套设施,为客户提供完整的分布式数据库解决方案。

数据技术嘉年华,十周年盛大开启,点我立即报名大会以“自研·智能·新基建——云和数据促创新 生态融合新十年” 为主题,相邀数据英雄,总结过往十年历程与成绩,展望未来十年趋势与目标!


TDSQL按照官方要求配置相对较高,现通过4台虚拟机演示TDSQL的全套部署。如有不对的地方请指证 wx:moonstar00

机器数量规划:

tdsql 规划机器如下:4台(CPU:2core/MEM:8G/HDD:50G) ,内存至少5G以上 ,CPU 至少2C以上, 否则检查通不过

TDSQL安装部署

  1. 1.设主机名
  2. hostnamectl set-hostname huyidb01
  3. hostnamectl set-hostname huyidb02
  4. hostnamectl set-hostname huyidb03
  5. hostnamectl set-hostname huyidb04
  6. 2.配置主机名
  7. vim /etc/hosts
  8. 10.85.10.51 huyidb01
  9. 10.85.10.52 huyidb02
  10. 10.85.10.53 huyidb03
  11. 10.85.10.54 huyidb04
  12. 3.设置时间同步
  13. 以huyidb01为主时钟
  14. mount /dev/cdrom /mnt
  15. yum -y install ntp*
  16. [root@huyidb01 ~]# vim /etc/ntp.conf
  17. #同步地址
  18. server 127.127.1.0 iburst
  19. systemctl restart ntpd.service
  20. [root@huyidb02 ~]# vim /etc/ntp.conf
  21. server 10.85.10.51
  22. restrict 10.85.10.51 mask 255.255.240.0 nomodify notrap
  23. systemctl restart ntpd.service
  24. ntpdate -u 10.85.10.51
  25. [root@huyidb03 ~]# vim /etc/ntp.conf
  26. server 10.85.10.51
  27. restrict 10.85.10.51 mask 255.255.240.0 nomodify notrap
  28. systemctl restart ntpd.service
  29. ntpdate -u 10.85.10.51
  30. [root@huyidb04 ~]# vim /etc/ntp.conf
  31. server 10.85.10.51
  32. restrict 10.85.10.51 mask 255.255.240.0 nomodify notrap
  33. systemctl restart ntpd.service
  34. ntpdate -u 10.85.10.51
  35. 4.配置免密登录(管理机 110.85.10.54 上操作)
  36. ssh-keygen -t rsa --这里不用输入密码,免密码登录
  37. ssh-copy-id 10.85.10.51 --下面要输入远程主机的密码
  38. ssh-copy-id 10.85.10.52
  39. ssh-copy-id 10.85.10.53
  40. ssh-copy-id 10.85.10.54
  41. #这里是通过IP copy的 ,测试的时候也只要用IP 例:ssh 10.85.10.51
  42. 5.准备数据目录路径(所有机器)
  43. mkdir -p /mysql/data
  44. mkdir -p /mysql/log

安装ANSIBLE

  1. unzip tdsql_full_install_ansible.zip
  2. cd tdsql_full_install_ansible
  3. python settings/install_ansible.py

配置tdsql_hosts

  1. vi /soft/tdsql_full_install_ansible/tdsql_hosts
  2. [envcheck]
  3. tdsql_huyidb01 ansible_ssh_host=10.85.10.51
  4. tdsql_huyidb02 ansible_ssh_host=10.85.10.52
  5. tdsql_huyidb03 ansible_ssh_host=10.85.10.53
  6. tdsql_huyidb04 ansible_ssh_host=10.85.10.54
  7. [zk]
  8. tdsql_zk1 ansible_ssh_host=10.85.10.51
  9. tdsql_zk2 ansible_ssh_host=10.85.10.52
  10. tdsql_zk3 ansible_ssh_host=10.85.10.53
  11. [scheduler]
  12. tdsql_scheduler1 ansible_ssh_host=10.85.10.52
  13. tdsql_scheduler2 ansible_ssh_host=10.85.10.53
  14. [oss]
  15. tdsql_oss1 ansible_ssh_host=10.85.10.52
  16. tdsql_oss2 ansible_ssh_host=10.85.10.53
  17. [chitu]
  18. tdsql_chitu1 ansible_ssh_host=10.85.10.52
  19. tdsql_chitu2 ansible_ssh_host=10.85.10.53
  20. [monitor]
  21. tdsql_monitor1 ansible_ssh_host=10.85.10.52
  22. tdsql_monitor1 ansible_ssh_host=10.85.10.53
  23. [db]
  24. tdsql_db1 ansible_ssh_host=10.85.10.51
  25. tdsql_db2 ansible_ssh_host=10.85.10.52
  26. tdsql_db3 ansible_ssh_host=10.85.10.53
  27. [proxy]
  28. tdsql_proxy1 ansible_ssh_host=10.85.10.51
  29. tdsql_proxy2 ansible_ssh_host=10.85.10.52
  30. tdsql_proxy3 ansible_ssh_host=10.85.10.53
  31. [hdfs]
  32. tdsql_hdfs1 ansible_ssh_host=10.85.10.54
  33. [lvs]
  34. tdsql_lvs1 ansible_ssh_host=10.85.10.52
  35. tdsql_lvs2 ansible_ssh_host=10.85.10.53
  36. [kafka]
  37. tdsql_kafka1 ansible_ssh_host=10.85.10.51
  38. tdsql_kafka2 ansible_ssh_host=10.85.10.52
  39. tdsql_kafka3 ansible_ssh_host=10.85.10.53
  40. [consumer]
  41. tdsql_consumer1 ansible_ssh_host=10.85.10.54
  42. [es]
  43. tdsql_es1 ansible_ssh_host=10.85.10.54
  44. [newdb]
  45. tdsql_newdb1 ansible_ssh_host=1.1.1.1
  46. tdsql_newdb2 ansible_ssh_host=2.2.2.2
  47. tdsql_newdb3 ansible_ssh_host=3.3.3.3

修改 ansible 变量

  1. vi /soft/tdsql_full_install_ansible/group_vars/all
  2. zk_num: 3
  3. netif_name: ens38 #<---填入 scheduler(ifconfig 看到的)网卡的名称
  4. tdsql_pass: a+complex+password
  5. zk_rootdir: /tdsqlzk

下面参数后面安装相关模块时在调整

  1. metadb_ip: 10.120.109.204
  2. metadb_port: 15001
  3. metadb_ip_bak: 10.120.109.205
  4. metadb_port_bak: 15001
  5. metadb_user: hanlon
  6. metadb_password: hanlon
  7. ssh_port: 36000
  8. hdfs_datadir: /data2/hdfs,/data3/hdfs,/data4/hdfs
  9. kafka_logdir: /data2/kafka,/data3/kafka,/data4/kafka
  10. es_mem: 8
  11. es_log_days: 7
  12. es_base_path: /data/application/es-install/es
  13. tdsql_secret_pass: K2JatUv5llBbMrske/k2YbqC
  14. oc_secret_pass: LGhVs0v5nVxcOLQie/k9bb2I
  15. clouddba_metadb_pass: h5Wyg2Xy

执行安装 part1_site.yml

  1. sh encrypt.sh <---------必须执行,更新密文密码
  2. ansible-playbook -i tdsql_hosts part1_site.yml
  3. # 执行了近20多分钟 ,执行完成要无failed=0
  4. PLAY RECAP ********************************************************************************************************************************************************
  5. chitu1 : ok=20 changed=19 unreachable=0 failed=0
  6. chitu2 : ok=20 changed=19 unreachable=0 failed=0
  7. db1 : ok=13 changed=12 unreachable=0 failed=0
  8. db2 : ok=13 changed=12 unreachable=0 failed=0
  9. db3 : ok=13 changed=12 unreachable=0 failed=0
  10. huyidb01 : ok=30 changed=19 unreachable=0 failed=0
  11. huyidb02 : ok=27 changed=16 unreachable=0 failed=0
  12. huyidb03 : ok=27 changed=16 unreachable=0 failed=0
  13. huyidb04 : ok=27 changed=17 unreachable=0 failed=0
  14. oss1 : ok=14 changed=11 unreachable=0 failed=0
  15. oss2 : ok=14 changed=11 unreachable=0 failed=0
  16. proxy1 : ok=13 changed=10 unreachable=0 failed=0
  17. proxy2 : ok=13 changed=10 unreachable=0 failed=0
  18. proxy3 : ok=13 changed=10 unreachable=0 failed=0
  19. scheduler1 : ok=25 changed=23 unreachable=0 failed=0
  20. scheduler2 : ok=22 changed=20 unreachable=0 failed=0
  21. zk1 : ok=19 changed=17 unreachable=0 failed=0
  22. zk2 : ok=19 changed=17 unreachable=0 failed=0
  23. zk3                        : ok=19   changed=17   unreachable=0    failed=0

错误:

  1. TASK [zk_cluster : upload the template file zk_configure.py to the dst host] ************************************************************************************************************************************************************
  2. fatal: [tdsql_zk1]: FAILED! => {"changed": false, "msg": "AnsibleUndefinedVariable: \"hostvars['zk1']\" is undefined"}
  3. fatal: [tdsql_zk2]: FAILED! => {"changed": false, "msg": "AnsibleUndefinedVariable: \"hostvars['zk1']\" is undefined"}
  4. fatal: [tdsql_zk3]: FAILED! => {"changed": false, "msg": "AnsibleUndefinedVariable: \"hostvars['zk1']\" is undefined"}
  5. to retry, use: --limit @/soft/tdsql_full_install_ansible/part1_site.retry

原因:tdsql_hosts 配置标签不规范 , 版本不同,标签有所不同. 具体的参考模板,只改IP)
解决办法: tdsql_zk1 改为 zk1

初始化chitu

http://10.85.10.52/tdsqlpcloud

注意这里的OSS IP ,可能不是实际IP

可以查看cat /data/application/OSS/conf/scheduler.xml
或 netstat 查看

  1. [root@huyidb02 ~]# netstat -an | grep 8080
  2. tcp 0 0 192.168.58.131:8080 0.0.0.0:* LISTEN


  1. 注意:这里的OSS IP ,可能不是实际IP
  2. 可以查看cat /data/application/OSS/conf/scheduler.xml
  3. 或 netstat 查看
  4. [root@huyidb02 ~]# netstat -an | grep 8080
  5. tcp 0 0 192.168.58.131:8080 0.0.0.0:* LISTEN


机型查看:

  1. [root@huyidb02 data]# dmidecode | grep “Product Name”
  2. Product Name: VMware Virtual Platform
  3. Product Name: 440BX Desktop Reference Platform

DB机型 这里填 440BX

注意: 不同DB 要在不同的IDC
           同一个网关组的要在同一个IDC中

登录运营管理平台: 帐号密码   admin/123456

  1. [root@huyidb02 data]# mysql -utdsqlpcloud -h10.85.10.52 -P15001 -p'tdsqlpcloud'
  2. Welcome to the MariaDB monitor. Commands end with ; or \g.
  3. Your MySQL connection id is 3171
  4. Server version: 5.7.17-11-V2.0R540D002-20191226-1152-log Source distribution
  5. Copyright (c) 2000, 2018, Oracle, MariaDB Corporation Ab and others.
  6. Type 'help;' or '\h' for help. Type '\c' to clear the current input statement.
  7. MySQL [(none)]>
  1. 在管理库修改
  2. vi /soft/tdsql_full_install_ansible/group_vars/all
  3. metadb_ip: 10.85.10.52
  4. metadb_port: 15001
  5. metadb_ip_bak: 10.85.10.53
  6. metadb_port_bak: 15001
  7. metadb_user: tdsqlpcloud
  8. metadb_password: tdsqlpcloud
  9. # 执行安装 part2_site.yml
  10. sh encrypt.sh <---------必须执行,更新密文密码
  11. ansible-playbook -i tdsql_hosts part2_site.yml
  12. 注意:failed=0
  13. PLAY RECAP ********************************************************************************************************************************************************
  14. chitu1 : ok=19 changed=16 unreachable=0 failed=0
  15. chitu2 : ok=5 changed=4 unreachable=0 failed=0
  16. huyidb01 : ok=18 changed=11 unreachable=0 failed=0
  17. huyidb02 : ok=18 changed=11 unreachable=0 failed=0
  18. huyidb03 : ok=18 changed=11 unreachable=0 failed=0
  19. huyidb04 : ok=18 changed=11 unreachable=0 failed=0
  20. monitor1 : ok=12 changed=12 unreachable=0 failed=0
  21. oss1 : ok=14 changed=9 unreachable=0 failed=0
  22. oss2 : ok=14 changed=9 unreachable=0 failed=0
  23. scheduler1 : ok=31 changed=26 unreachable=0 failed=0
  24. scheduler2 : ok=22 changed=18 unreachable=0 failed=0
  25. #在任意一台 scheduler 机器上执行下面的命令:
  26. cd /data/application/scheduler/bin
  27. ./agent_config --mode modify --option="ocagent_port" --value="8966"
  28. ./agent_config --mode modify --option="hadoop_dir" --value="/data/home/tdsql/hadoop-3.2.1/bin"

安装备用赤兔(如果有另一个未初始化的 chitu)

  1. 将已初始化的 chitu 机器上拷贝 2 个文件到未初始化的 chitu 机器上,并删除未初始化 chitu 机器上的 crontab,如下:
  2. 10.85.10.52 已初始化 chitu
  3. 10.85.10.53 未初始化 chitu
  4. 1)在 52 机器上,拷贝文件到 53 机器上
  5. scp -p /data/website/tdsqlpcloud/www/config/database.php 10.85.10.53:/data/website/tdsqlpcloud/www/config/
  6. scp -p /data/website/tdsqlpcloud/www/config/install.lock 10.85.10.53:/data/website/tdsqlpcloud/www/config/
  7. 2)删除 53 机器上 nginx 用户的 crontab
  8. cp -a /var/spool/cron/nginx /data/tools/nginx_cron_bak
  9. rm -f /var/spool/cron/nginx
  10. 3)测试,登录 53 的 chitu
  11. http://10.85.10.53/tdsqlpcloud
  12. 至此TDSQL的基本模块已安装完成。

安装其它模块(可选)
安装以下模块之前要确保 TDSQL 核心模块安装无误后再进行。
如果需要使用 hdfs 异地冷备存储 binlog 和镜像文件,用于数据回档恢复,安装 hdfs。
如果需要使用 tdsql 默认提供的接入层 lvs,安装 lvs。
如果需要使用多源同步功能,安装 kafka 和 consumer。
如果需要使用网关日志分析及 sql 审计功能,安装 es。

安装 hdfs

  1. (1)准备 hdfs 的数据目录的路径
  2. 首先用 lsblk 查看磁盘信息
  3. 格式化为 xfs 文件系统
  4. mkfs.xfs -f /dev/sdg
  5. 创建目录
  6. mkdir -p /mysql/backup
  7. 修改/etc/fstab 文件,设置自动挂载到指定路径
  8. /dev/sdg /mysql/backup xfs defaults,noatime 0 0
  9. 挂载磁盘
  10. mount -a
  11. (2)设置主机名
  12. 在 hdfs 机器上设置主机名,hdfs 集群中主机名不能重复,不能有下划线、中划线等特殊字符,
  13. hostnamectl set-hostname huyidb04
  14. (3)检查 tdsql_hosts 文件
  15. vim tdsql_hosts
  16. [hdfs] <---填入 hdfs 机器地址,hdfs 的数量只能是 1 或 3
  17. hdfs1 ansible_ssh_host=10.85.10.54
  18. (4)修改 hdfs 变量
  19. 修改 group_vars/all 中下面的相关变量
  20. vim group_vars/all
  21. ---
  22. ssh_port: 36000 <----实际的 ssh 通信端口
  23. hdfs_datadir: /mysql/backup <----多个迪特 一个磁盘一个路径,逗号分隔
  24. 注意这些数据文件路径的权限要是 tdsql,如下:
  25. chown -R tdsql:users /mysql/backup
  26. (5)安装 hdfs 单点 (我的是单点HDFS)
  27. 执行安装
  28. ansible-playbook -i tdsql_hosts hdfs_single.yml
  29. su - tdsql
  30. hdfs namenode -format <---格式化 namenode
  31. 启动 namenode 和 datanode :
  32. hdfs --daemon start namenode
  33. hdfs --daemon start datanode
  34. 附:用 tdsql 用户关闭 hdfs 进程 :
  35. hdfs --daemon stop datanode
  36. hdfs --daemon stop namenode
  37. (6)安装 hdfs 高可用架构 (如果是高可用 用下面的方式安装)
  38. 3 个节点,并且 zk 集群不能是单点。
  39. 执行安装 hdfs
  40. ansible-playbook -i tdsql_hosts hdfs.yml
  41. su - tdsql
  42. 用 tdsql 用户初始化 hdfs 集群,初始化顺序如下,初始化的工作只用做一次,不要重复初始化
  43. 用 tdsql 用户在 hdfs1 机器,格式化 zk
  44. hdfs zkfc -formatZK
  45. 用 tdsql 用户在所有机器,启动 journalnode
  46. hdfs --daemon start journalnode
  47. 用 tdsql 用户在 hdfs1 机器,格式化并启动 namenode
  48. hdfs namenode -format
  49. hdfs --daemon start namenode
  50. 用 tdsql 用户在 hdfs2 机器,格式化 namenode
  51. hdfs namenode -bootstrapStandby
  52. 用 tdsql 用户启动 hdfs 集群,启动顺序如下,已经启动的进程就不用重复再启动了,查看启动的进程”jps”
  53. 在所有 hdfs 机器上启动 journalnode
  54. hdfs --daemon start journalnode
  55. 在 hdfs1 和 hdfs2 上启动 namenode
  56. hdfs --daemon start namenode
  57. 在 hdfs1 和 hdfs2 上启动 zkfc
  58. hdfs --daemon start zkfc
  59. 在所有 hdfs 机器上启动 datanode
  60. hdfs --daemon start datanode
  61. 附:用 tdsql 用户关闭 hdfs 集群,关闭顺序如下
  62. 在所有 hdfs 机器上关闭 datanode
  63. hdfs --daemon stop datanode
  64. 在 hdfs1 和 hdfs2 上关闭 zkfc
  65. hdfs --daemon stop zkfc
  66. 在 hdfs1 和 hdfs2 上关闭 namenode
  67. hdfs --daemon stop namenode
  68. 在所有 hdfs 机器上关闭 journalnode
  69. hdfs --daemon stop journalnode
  70. (7)在 hdfs 集群下查看/tdsqlbackup 路径
  71. 用 tdsql 用户执行以下命令
  72. #查看/tdsqlbackup 目录是否已经被自动创建,权限是否如下
  73. hadoop fs -ls /
  74. drwxr-xr-x - tdsql supergroup 0 2019-01-02 17:52 /tdsqlbackup
  75. 如果目录不在或者权限不对,用下面命令修改:
  76. hadoop fs -mkdir /tdsqlbackup
  77. hadoop fs -chown tdsql.supergroup /tdsqlbackup
  78. (8)管理 hdfs 集群
  79. 用 tdsql 用户执行以下命令
  80. 查看所有 namenode 节点状态,及主备情况(只适用于高可用 3 节点架构)
  81. hdfs haadmin -getAllServiceState
  82. 查看所有 datanode 节点的状态,及上报的容量情况
  83. hdfs dfsadmin -report
  84. (9)注意
  85. 用 tdsql 用户执行 jps 命令,可以看到 hdfs 的进程名称(只适用于高可用 3 节点架构)
  86. hdfs1 和 hdfs2 机器上应该看到 NameNode、JournalNode、DataNode、DFSZKFailoverController
  87. hdfs3 机器上应该看到 DataNode、JournalNode
  88. (10)配置 hdfs 监控
  89. 如果有 HDFS,但是没有配置 HDFS 监控,到""集群管理->集群配置”中设置“HDFS 服务列表"",
  90. 注意:如上图所示填写 namenode 节点(一般 2 个)的 50070 端口
  91.           生产环境不能用单节点 hdfs,单节点架构的 hdfs 的端口号是 9870


安装 lvs

  1. lvs 机器建议单独部署,不建议和别人复用(最多只能和 zk 复用)。
  2. (1)检查 tdsql_hosts 文件
  3. vim tdsql_hosts
  4. [lvs] <---填入 lvs 地址,lvs 的数量固定为 2
  5. lvs1 ansible_ssh_host=10.85.10.52
  6. lvs2 ansible_ssh_host=10.85.10.53
  7. (2)安装 lvs
  8. ansible-playbook -i tdsql_hosts lvs.yml
  9. (3)赤兔前台操作 lvs 接入层管理 -> LVS 设备资源管理 -> 上报 LVS 设备资源
  10. 上报 lvs 机器信息(2 台 lvs 机器信息都要上报)
  11. 设备 IP:填入 LVS 机器的通信 ip 地址。
  12. 网卡名字:通信网卡设备名。
  13. 子网掩码:填入实际的子网掩码。
  14.     IDC:lvs 机器需要划分到同一个 IDC 中,比如这里的“IDC_SZ_YDGL_0401_000001”。


创建 VIP(不能选取部署的机器 IP 作为 VIP,需要另选之外一个)
VIP:规划一个 vip 的地址,vip 的地址要和 lvs 机器的通信 ip 地址在同一个网段内。
设备 IP 列表:填入 lvs 机器的通信 ip 地址,一行一个。

创建 VIPGroup
VIPGroup 名:新建一个 vipgroup,取一个有意义的名字。


安装 kafka

  1. (1)检查 tdsql_hosts 文件
  2. vim tdsql_hosts
  3. [kafka] <----填入 kafka 集群的地址,kafka 的数量固定为 3
  4. kafka1 ansible_ssh_host=10.85.10.51 <----kafka 机器的 java 虚拟机占用 3 个 g 以上内存
  5. kafka2 ansible_ssh_host=10.85.10.52
  6. kafka3 ansible_ssh_host=10.85.10.53
  7. (2)修改多源同步变量
  8. 修改 group_vars/all 中下面的相关变量
  9. vim group_vars/all
  10. kafka_logdir: /mysql/log/kafka #日志要创建kafka目录
  11. (3)执行安装多源同步
  12. ansible-playbook -i tdsql_hosts kafka.yml
  13. (4)验证是否安装成功
  14. cd /data/application/kafka_2.12-2.3.1/logs
  15.     vim server.log            <----查看 kafka 启动信息

安装 consumer

  1. (1) 查看 tdsql_hosts 文件
  2. [consumer] <---填入消费者的地址,数量固定为 1
  3. consumer1 ansible_ssh_host=10.240.139.35
  4. (2)执行安装 consumer
  5. ansible-playbook -i tdsql_hosts consumer.yml
  6. (3)启动消费者服务
  7. 在 consumer 的机器上,使用下面命令启动消费者服务
  8. cd /data/application/consumer/bin/
  9. ./binlogconsumermgn --zklist 10.240.139.35:2181 --zkrootpath /noshard1 --kafkazklist 10.240.139.35:2181 --kafkazkrootpath /kafka --dev eth1
  10. 参数说明:
  11. --zklist ZK 的 ip:port,可以写多个 ZK ip:port,多个之间用英文逗号分隔
  12. --zkrootpath 注意整理 zk 根节点与部署的时候 group_vars/all 下的” zk_rootdir”一致
  13. --kafkazklist kafka 所在 zk,通常与--zklist 一样
  14. --kafkazkrootpath kafka 在 ZK 上的根节点,固定是/kafka
  15. --dev consumer 的网卡名称
  16. 例如:
  17.     ./binlogconsumermgn --zklist 10.85.10.51:2181,10.85.10.52:2181,10.85.10.53:2181 --zkrootpath /tdsqlzk --kafkazklist  10.85.10.51:2181,10.85.10.52:2181,10.85.10.53:2181 --kafkazkrootpath /kafka --dev ens38

安装 es

  1. 1) 查看 tdsql_hosts 文件(不能与 chitu 同一台机器)
  2. [es] <---填入 es 的地址,数量固定为 1
  3. es1 ansible_ssh_host=10.85.10.54
  4. 修改变量文件 vim group_vars/all
  5. es_mem: 8 <-----内存占用,如果这里写 8 则至少占用 8*2=16G 内存
  6. es_log_days: 7 <-----日志保留天数
  7. es_base_path: /data/application/es-install/es <-----es 数据存放路径
  8. 改为
  9. es_mem: 2
  10. es_log_days: 7
  11. es_base_path: /mysql/data/es-install/es
  12. 2)执行安装 es
  13. ansible-playbook -i tdsql_hosts es_single.yml
  14. 3)启停命令(在 es 机器上操作):
  15. # stop
  16. ps -ef |grep elasticsearch | grep -v 'grep'| awk '{print $2}' | xargs kill -9
  17. ps -ef |grep logstash | grep -v 'grep'| awk '{print $2}' | xargs kill -9
  18. ps -ef |grep es-cleaner | grep -v 'grep'| awk '{print $2}' | xargs kill -9
  19. ps -ef |grep 'node/bin/node' | grep -v 'grep'| awk '{print $2}' | xargs kill -9
  20. # start
  21. tdsql 用户启动:
  22. cd /data/application/es-install/es/master/tools
  23. ./start-elasticsearch.sh
  24. cd /data/application/es-install/es/data/tools
  25. ./start-elasticsearch.sh
  26. root 用户启动:
  27. cd /data/application/es-install/logstash/tools
  28. ./start-logstash.sh
  29. cd /data/application/es-install/es-cleaner
  30. ./start-es-cleaner.sh
  31. cd /data/application/es-install/kibana-5.6.4-linux-x86_64/bin/
  32. nohup ./kibana &
  33. # 检测是否正常启动
  34. ps -ef |grep elasticsearch | grep -v 'grep' |wc -l
  35. 输出为:4 <--------我的单个ES 个数为0
  36. ps -ef |grep logstash | grep -v 'grep' |wc -l
  37. 输出为:2
  38. ps -ef |grep es-cleaner | grep -v 'grep' |wc -l
  39. 输出为:1
  40. ps -ef |grep 'node/bin/node' | grep -v 'grep' |wc -l
  41. 输出为:1
  42. 3)es 的验证及相关配置
  43. 输入 es IP 地址,打开 es 前台页面。
  44. 启动 es 后,需要把实例详情中的“网关审计数据是否入库”打开,选择“是”。

只有在打开这个开关后的日志才会入 es,为了可以定位问题,需要的话一定要尽早打开。

至此,TDSQL所有模块已部署完成,后期可以直接使用和测试了。

更多内容可参考:https://www.cnblogs.com/cqdba/p/13704465.html

墨天轮原文链接:https://www.modb.pro/db/32609(复制到浏览器中打开或者点击“阅读原文”)

推荐阅读:144页!分享珍藏已久的数据库技术年刊

视频号,新的分享时代,关注我们,看看有什么新发现?

数据和云

ID:OraNews

如有收获,请划至底部,点击“在看”,谢谢!

点击下图查看更多 ↓

云和恩墨大讲堂 | 一个分享交流的地方

长按,识别二维码,加入万人交流社群

请备注:云和恩墨大讲堂

  点个“在看”

你的喜欢会被看到❤

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/我家小花儿/article/detail/160349?site
推荐阅读
相关标签
  

闽ICP备14008679号