当前位置:   article > 正文

zabbix介绍及部署(超级详细讲解)

zabbix

目录

监控什么

一、安装部署

服务端

服务端安装

服务端页面配置

中文配置

图形中文乱码

agent 端

agent 配置文件介绍

自动发现并安装

step 1 创建自动发现规则

step 2 创建发现动作

啥,还缺东西

二、添加监控

1、添加被监控的主机

添加主机组

添加主机

2、添加监控项

关于监控项单位的种种

3、触发器 

触发值选择

设置触发器

4、报警媒介

电子邮件类

测试

Mattermost

5、添加用户

添加用户

为用户添加报警媒介

为用户添加主机权限

6、添加动作

添加动作

验证动作是否触发

7、可视化

添加自定义图形

聚合图形

幻灯片

拓扑图

8、自定义模板

创建模板

使用自定义模板

9、宏

定义宏

使用宏

10、监控项自动发现(LLD)

三、用户参数(自定义key)

1、格式

、用法展示

3、升级版用法(带参数的监控项)

四、网络发现

设置自动发现规则

五、agent端各种监控方式

1、主动监控

配置

设置一个主动监控

使用sender手动发送数据

2、snmp方式

linux启用snmp

配置snmp监控

设置入站出站packets 的SNMP监控

六、分布式监控

1、添加zabbix-proxy主机—服务器设置

2、页面设置

3、为proxy添加监控主机

七、开始监控

1、监控php-fpm服务状态

2、web服务器监控

创建web监控

查看web监控

3、监控tomcat

4、监控mysql

存活监测

其他性能监测

5.0版本新方法

八、常用自定义监控项

1、mysql

2、redis

3、nginx

4、TCP相关

5、系统常用自带监控项

6、系统常用自定义监控项

九、zabbix优化

1、数据库

引擎

数据库

2、优化监控项

3、Agent 工作模式改为主动或者使用分布式:Proxy

4、优化相关进程数

设置自动发现

缓存设置

十、使用时遇到的问题

1、监控的服务器太多,把根占满了

迁移zabbix使用的mysql

十一、报警处理

Zabbix server: More than 75% used in the history cache


监控什么

prometheus 监控可见:prometheus 从入门到精通(史上最全)-CSDN博客

  • 服务器

cpu利用率、mem、网卡输入、网卡输出(是否有猛增的流量,正常情况下流量不会超过某个值,进口增大—》可能遭到攻击,出口增大—》可能中了木马变成肉鸡)

  • 应用程序

python、java、php

  • 服务

nginx、tomcat、httpd

开源监控

zabbix

普罗米修斯(使用go语言 时序监控)——对容器、微服务的监控

Open-fa

一、安装部署

官方中文安装指导

lcon (小米的)

服务端

服务端安装
  1. # 安装zabbix仓库
  2. rpm -Uvh https://repo.zabbix.com/zabbix/5.0/rhel/7/x86_64/zabbix-release-5.0-1.el7.noarch.rpm
  3. # 安装zabbix server 和agent
  4. yum -y install zabbix-server-mysql zabbix-agent
  5. # 安装 Red Hat 软件集合(仓库)
  6. yum -y install centos-release-scl
  7. # 编辑仓库配置文件 /etc/yum.repos.d/zabbix.repo 并开启 zabbix-frontend repository
  8. [zabbix-frontend]
  9. ...
  10. enabled=1
  11. ...
  12. # 安装 Zabbix 前端 软件包
  13. yum -y install zabbix-web-mysql-scl zabbix-nginx-conf-scl
  14. # 进入数据库
  15. # 创建 zabbix数据库
  16. create database zabbix character set utf8 collate utf8_bin;
  17. # 创建 zabbix用户
  18. create user zabbix@localhost identified by '密码';
  19. # 授权
  20. grant all privileges on zabbix.* to zabbix@localhost;
  21. # 导入初始架构和数据,系统将提示您输入新创建的密码
  22. zcat /usr/share/doc/zabbix-server-mysql*/create.sql.gz | mysql -uzabbix -p密码 zabbix
  23. # 配置数据库
  24. vim /etc/zabbix/zabbix_server.conf
  25. DBPassword=密码
  26. # 配置rh-nginx
  27. vim /etc/opt/rh/rh-nginx116/nginx/nginx.conf
  28. 删除 server 内容
  29. # 配置nginx子配置文件
  30. vim /etc/opt/rh/rh-nginx116/nginx/conf.d/zabbix.conf
  31. 取消 listen 和 server_name 的注释并设置它们。
  32. # 配置php
  33. vim /etc/opt/rh/rh-php72/php-fpm.d/zabbix.conf
  34. # 添加 nginx 到 listen.acl_users 指令的值中
  35. listen.acl_users = apache,nginx
  36. # 取消下面的注释并设置正确的时区
  37. php_value[date.timezone] = Asia/Shanghai
  38. # 启动zabbix服务
  39. systemctl restart zabbix-server zabbix-agent rh-nginx116-nginx rh-php72-php-fpm

如果 mysql 用的是8.x版本的,zabbix-server 就会无法正常启动,这是因为 mysql 8.x 版本的密码加密方式与之前的不同,可进入数据库更改 zabbix 用户的密码加密方式。

  1. # 具体报错为 ERROR 2059 (HY000): Authentication plugin 'caching_sha2_password' cannot be loaded: /usr/lib64/mysql/plugin/caching_sha2_password.so: cannot open shared object file: No such file or directory
  2. # 更改步骤,1.先查看当前规则
  3. select host,user,plugin from mysql.user;
  4. +-----------+------------------+-----------------------+
  5. | host | user | plugin |
  6. +-----------+------------------+-----------------------+
  7. | localhost | mysql.infoschema | caching_sha2_password |
  8. | localhost | mysql.session | caching_sha2_password |
  9. | localhost | mysql.sys | caching_sha2_password |
  10. | localhost | root | caching_sha2_password |
  11. | localhost | zabbix | caching_sha2_password |
  12. +-----------+------------------+-----------------------+
  13. 5 rows in set (0.00 sec)
  14. # plugin 就是密码的加密规则,我们可以看到 zabbix 用户的加密规则是 caching_sha2_password ,而之前版本所用的加密规则是 mysql_native_password,所以我们现在要将加密规则改回来
  15. # 第二步,更改加密规则
  16. alter user 'zabbix'@'localhost' identified by 'Bumy313@.2021' password expire never;
  17. alter user 'zabbix'@'localhost' identified with mysql_native_password by 'Bumy313@.2021;
  18. # 再次查看
  19. +-----------+------------------+-----------------------+
  20. | host | user | plugin |
  21. +-----------+------------------+-----------------------+
  22. | localhost | mysql.infoschema | caching_sha2_password |
  23. | localhost | mysql.session | caching_sha2_password |
  24. | localhost | mysql.sys | caching_sha2_password |
  25. | localhost | root | caching_sha2_password |
  26. | localhost | zabbix | mysql_native_password |
  27. +-----------+------------------+-----------------------+
  28. 5 rows in set (0.00 sec)
  29. # 现在重新启动 zabbix-server 就可以发现 他可以正常启动了
服务端页面配置

访问并配置zabbix,直接在网页输入自己的IP加端口即可

填写 Zabbix 服务器的主机名或主机IP地址和端口号,以及安装的名称(可选)。最后的 Name 的值是可选的,这个表示安装的这个 zabbix server 是什么角色。因为, Zabbix 是可以做分布式的监控系统,可以有一个服务器角色和多个代理角色。

这里还有一步信息确认忘了截图,不过无关紧要,确认无误后下一步即可

至此,zabbix 的安装就完成了

默认的登录用户名为:Admin ,密码为:zabbix

成功后,进入仪表盘

中文配置
图形中文乱码

图形中文乱码

首先在 windows 中找一个自己喜欢的字体文件,具体路径在 C:\Windows\Fonts ,找一个 ttf 类型的文件(可以选中文件然后右击属性查看)

找到对眼的以后,上传至服务器,将文件放在 /usr/share/zabbix/assets/fonts 目录下,将文件的后缀改为小写 ttf

然后更改配置文件 /usr/share/zabbix/include/defines.inc.php 中的 define('ZBX_GRAPH_FONT_NAME', 'graphfont'); // font file name 将 graphfont 改为字体文件的名字(不加后缀)即可,无需重启服务,直接刷新zabbix 页面即可生效

agent 端

使用yum安装

  1. # 安装zabbix仓库
  2. rpm -Uvh https://repo.zabbix.com/zabbix/5.0/rhel/7/x86_64/zabbix-release-5.0-1.el7.noarch.rpm
  3. # 安装 zabbix-agent
  4. yum -y install zabbix-agent
  5. # 修改配置文件,添加server端的IP,具体看下面配置文件的介绍
  6. vim /etc/zabbix/zabbix_agentd.conf
  7. # 启动
  8. systemctl restart zabbix-agent

二进制安装

  1. # 下载二进制包
  2. wget https://cdn.zabbix.com/zabbix/binaries/stable/5.0/5.0.7/zabbix_agent-5.0.7-linux-3.0-amd64-static.tar.gz
  3. # 解压
  4. mkdir /usr/local/zabbix-agent
  5. tar -xf zabbix_agent-5.0.7-linux-3.0-amd64-static.tar.gz -C /usr/local/zabbix-agent
  6. # 添加zabbix用户
  7. useradd zabbix
  8. # 注意:默认情况下,即使使用 `root` 用户启动此程序,程序最终也会用 `zabbix` 用户启动,此时只要保证系统中有 `zabbix` 用户即可。
  9. # 指定配置文件启动
  10. /usr/local/zabbix_agent/sbin/zabbix_agentd -c /usr/local/zabbix_agent/conf/zabbix_agentd.conf

agent 配置文件介绍
  1. ############ GENERAL PARAMETERS #################
  2. ##### Passive checks related 被动模式
  3. ### Option: Server
  4. Server=127.0.0.1 # 被动模式下 zabbix server 的地址,也就是允许哪些主机给我发指令
  5. # 换成服务端IP
  6. ### Option: ListenPort
  7. # ListenPort=10050 # Agent 自己的监听端口
  8. ### Option: ListenIP
  9. # ListenIP=0.0.0.0 # Agent 自己的监听地址
  10. ##### Active checks related 主动模式
  11. ### Option: ServerActive
  12. ServerActive=127.0.0.1 # 主动模式下,向这些服务器主动汇报监控数据 换成服务端IP
  13. ### Option: Hostname
  14. # Hostname=
  15. Hostname=Zabbix server # agent端在 Server 端的识别码,可以不更改
自动发现并安装

 实现自动发现,自动安装agent,自动添加模板,自动添加监控项,自动添加触发器,自动添加动作

即从发现到监控,一气呵成!

step 1 创建自动发现规则

设置好你要发现的 IP 段

step 2 创建发现动作

注意这个路径,一定要在左上角选择 Discovery actions ,然后点击创建动作

新建的动作要添加两个条件

  • 第一个为第一步创建的发现规则,即去ping

  • 第二个是必须能 ping 通。

这两个条件必须为 和 (同时满足)

条件添加完毕后,再添加操作,即当满足上述条件后进行的动作

  • 执行远程命令 因为 angent 不会自己安装自己,所以我们需要搞个脚本来进行这步操作

  • 当安装、配置完agent后,添加上该主机

  • 添加主机群

  • 添加模板

至此,一台机器就从无到有,自动监控上了

 

啥,还缺东西

那可不,脚本光看了功能和名字,还不知道内容呢

这里用到了使用 nginx 来进行获取脚本并执行,由脚本自动安装配置agent

nginx 没啥特殊的,只要搭建一个普通的nginx即可,然后将脚本放在它的 root 目录下,就可以使用 curl 来进行获取

  1. # 如果要使用,请仔细看这个脚本后,然后修改 IP
  2. create_yum(){
  3. echo -e """[yumop]
  4. name=centos7.6
  5. baseurl=http://128.1.70.1/centos
  6. enabled=1
  7. gpgcheck=0
  8. [yumop2]
  9. name=centos7.7
  10. baseurl=http://128.2.42.165:8090
  11. enabled=1
  12. gpgcheck=0 """ >/etc/yum.repos.d/1.repo
  13. yum clean all
  14. yum makecache
  15. }
  16. # 检查是否已有agent
  17. rpm -qa|grep zabbix-agent
  18. if [[ $? -eq 0 ]];then
  19. exit 0
  20. fi
  21. # 查看yum源是否ok
  22. if [[ -e /etc/yum.repos.d/1.repo ]];then
  23. grep "baseurl=http://128.1.70.1/centos" /etc/yum.repos.d/1.repo >/dev/null && grep "baseurl=http://128.2.42.165:8090" /etc/yum.repos.d/1.repo >/dev/null
  24. if [[ $? -ne 0 ]];then
  25. create_yum
  26. fi
  27. else
  28. mkdir /etc/yum.repos.d/bak && mv /etc/yum.repos.d/*.repo /etc/yum.repos.d/bak
  29. if [[ $? -eq 0 ]];then
  30. create_yum
  31. else
  32. exit 99
  33. fi
  34. fi
  35. # 下载agent
  36. yum -y install zabbix-agent >/dev/null
  37. if [[ $? -eq 0 ]];then
  38. sed -i '/^Server=/cServer=128.2.64.153' /etc/zabbix/zabbix_agentd.conf && \
  39. sed -i '/^ServerActive==/cServerActive==128.2.64.153' /etc/zabbix/zabbix_agentd.conf && \
  40. systemctl restart zabbix-agent.service
  41. fi

二、添加监控

1、添加被监控的主机

实际生产中,被监控的主机中总是会有一部分主机需要被监控同样的内容,比如对于一个Nginx 集群,集群内的主机都需要监控他们的 nginx 进程。这样的话,我们应该建立一个主机组,之后把它们添加到这个主机组中。然后对这个主机组来设置相关的监控项。

添加主机组

添加主机

被添加的主机必须在配置文件中设置好监控的方式及server端的IP

在没有添加监控项之前,监控方式(可用性)的灯是不会亮起来的  

2、添加监控项

 初始可选的监控项有以下这些

注意监控项中的键值 net.dns[<ip>,name,<type>,<timeout>,<count>,<protocol>] 中括号中,有< > 的是选填,不加的是必填,具体参数可以看这里

因为我设置的时候忘记截图了,又点进去查看,所以下面是更新

配置好后,就可以查看被监控主机的状态了

关于监控项单位的种种

 注意:只要是初始值是大于等于 1000 的,Zabbix 都会对数据进行处理,处理的方式是除以 1000 或者除以 1024,得到的结果如果仍然大于等于 1000, 就会继续除以 1000 或者除以 1024,直到得到的结果小于 1000 为止

3、触发器 

触发值选择

 

设置触发器

 

last(1) 表示最后一秒

last(#1) 表示最后一次

4、报警媒介

 集中发送通知的方式,在 Zabbix 中都称为 报警媒介类型,报警媒介类型默认就会有很多。

电子邮件类

 

 

  1. # 报警模板
  2. 事件: {EVENT.NAME}
  3. 事件主机: {HOST.NAME}
  4. 事件时间: {EVENT.DATE} {EVENT.TIME}
  5. 事件等级: {TRIGGER.SEVERITY}
  6. 事件信息: {TRIGGER.NAME}
  7. 事件项目: {TRIGGER.KEY1}
  8. 事件详情: {ITEM.NAME} : {ITEM.VALUE}
  9. 当前状态: {TRIGGER.STATUS} : {ITEM.VALUE1}
  10. 事件ID: {EVENT.ID}
  11. 操作数据: {EVENT.OPDATA}
  12. {TRIGGER.URL}
测试

 

Mattermost

俺们公司是内网环境,通信靠 Mattermost 来进行交流,所以报警就靠 Mattermost 来报警了,zabbix中是有默认报警模板,只要稍加修改就可以使用

 trigger_description 告警描述

  1. // 默认的脚本也可以改改,这样可以控制显示的格式,以下是脚本全文,可以直接使用,我会在其中使用注释 标注哪里可以更改
  2. var SEVERITY_COLORS = [
  3. '#97AAB3', '#7499FF', '#FFC859',
  4. '#FFA059', '#E97659', '#E45959'
  5. ];
  6. var RESOLVE_COLOR = '#009900';
  7. var SEND_MODE_HANDLERS = {
  8. alarm: handlerAlarm,
  9. event: handlerEvent
  10. };
  11. if (!String.prototype.format) {
  12. String.prototype.format = function() {
  13. var args = arguments;
  14. return this.replace(/{(\d+)}/g, function(match, number) {
  15. return number in args
  16. ? args[number]
  17. : match
  18. ;
  19. });
  20. };
  21. }
  22. function isEventProblem(params) {
  23. return params.event_value == 1
  24. && params.event_update_status == 0
  25. ;
  26. }
  27. function isEventUpdate(params) {
  28. return params.event_value == 1
  29. && params.event_update_status == 1
  30. ;
  31. }
  32. function isEventResolve(params) {
  33. return params.event_value == 0;
  34. }
  35. function getPermalink(mattermost_url, team_name, postid) {
  36. return '{0}/{1}/pl/{2}'.format(
  37. mattermost_url.replace(/\/+$/, ''),
  38. team_name,
  39. postid
  40. );
  41. }
  42. function getChannel(send_to) {
  43. switch (true) {
  44. case /.+\/#.+/.test(send_to):
  45. return getChannelByName(send_to);
  46. case /@.+/.test(send_to):
  47. return getDirectChannel(send_to);
  48. default:
  49. return getChannelByID(send_to);
  50. }
  51. }
  52. function getChannelByName(send_to) {
  53. var team_chan = send_to
  54. .trim()
  55. .split('/#');
  56. var resp = JSON.parse(req.Get(
  57. Mattermost.channel_byname.format(team_chan[0], team_chan[1]),
  58. JSON.stringify(fields)
  59. )
  60. );
  61. if (req.Status() != 200) {
  62. throw '[{0}] {1}'.format(resp.status_code, resp.message);
  63. }
  64. return resp;
  65. }
  66. function getDirectChannel(send_to) {
  67. Zabbix.Log(5, '[ Mattermost Webhook ] Call {0}({1})'.format(
  68. arguments.callee.name,
  69. JSON.stringify(arguments)
  70. ));
  71. var teamUser = send_to
  72. .trim()
  73. .split('/@'),
  74. bot = getBotUser(),
  75. user = getUserByName(teamUser[1]);
  76. var resp = JSON.parse(req.Post(
  77. Mattermost.direct_channel,
  78. JSON.stringify([bot.id, user.id])
  79. )
  80. );
  81. Zabbix.Log(5, '[ Mattermost Webhook ] Result {0}: {1}'.format(
  82. arguments.callee.name,
  83. JSON.stringify(resp)
  84. ));
  85. if (req.Status() != 201) {
  86. throw '[{0}] {1}'.format(resp.status_code, resp.message);
  87. }
  88. resp.team_name = teamUser[0];
  89. return resp;
  90. }
  91. function getChannelByID(channelID) {
  92. Zabbix.Log(5, '[ Mattermost Webhook ] Call {0}({1})'.format(
  93. arguments.callee.name,
  94. JSON.stringify(arguments)
  95. ));
  96. var resp = JSON.parse(req.Get(
  97. Mattermost.get_channel.format(channelID),
  98. JSON.stringify(fields)
  99. )
  100. );
  101. Zabbix.Log(5, '[ Mattermost Webhook ] Result {0}: {1}'.format(
  102. arguments.callee.name,
  103. JSON.stringify(resp)
  104. ));
  105. if (req.Status() != 200) {
  106. throw '[{0}] {1}'.format(resp.status_code, resp.message);
  107. }
  108. return resp;
  109. }
  110. function getBotUser() {
  111. Zabbix.Log(5, '[ Mattermost Webhook ] Call {0}({1})'.format(
  112. arguments.callee.name,
  113. JSON.stringify(arguments)
  114. ));
  115. var resp = JSON.parse(req.Get(
  116. Mattermost.bot_user,
  117. JSON.stringify(fields)
  118. )
  119. );
  120. Zabbix.Log(5, '[ Mattermost Webhook ] Result {0}: {1}'.format(
  121. arguments.callee.name,
  122. JSON.stringify(resp)
  123. ));
  124. if (req.Status() != 200) {
  125. throw '[{0}] {1}'.format(resp.status_code, resp.message);
  126. }
  127. return resp;
  128. }
  129. function getUserByName(userName) {
  130. Zabbix.Log(5, '[ Mattermost Webhook ] Call {0}({1})'.format(
  131. arguments.callee.name,
  132. JSON.stringify(arguments)
  133. ));
  134. var resp = JSON.parse(req.Get(
  135. Mattermost.user_byname.format(userName),
  136. JSON.stringify(fields)
  137. )
  138. );
  139. Zabbix.Log(5, '[ Mattermost Webhook ] Result {0}: {1}'.format(
  140. arguments.callee.name,
  141. JSON.stringify(resp)
  142. ));
  143. if (req.Status() != 200) {
  144. throw '[{0}] {1}'.format(resp.status_code, resp.message);
  145. }
  146. return resp;
  147. }
  148. function getTeamByID(teamID) {
  149. Zabbix.Log(5, '[ Mattermost Webhook ] Call {0}({1})'.format(
  150. arguments.callee.name,
  151. JSON.stringify(arguments)
  152. ));
  153. var resp = JSON.parse(req.Get(
  154. Mattermost.get_team.format(teamID),
  155. JSON.stringify(fields)
  156. )
  157. );
  158. Zabbix.Log(5, '[ Mattermost Webhook ] Result {0}: {1}'.format(
  159. arguments.callee.name,
  160. JSON.stringify(resp)
  161. ));
  162. if (req.Status() != 200) {
  163. throw '[{0}] {1}'.format(resp.status_code, resp.message);
  164. }
  165. return resp;
  166. }
  167. function createProblemURL(zabbix_url, triggerid, eventid, event_source) {
  168. var problem_url = '';
  169. if (event_source === '0') {
  170. problem_url = '{0}/tr_events.php?triggerid={1}&eventid={2}'
  171. .format(
  172. zabbix_url,
  173. triggerid,
  174. eventid
  175. );
  176. }
  177. else {
  178. problem_url = zabbix_url;
  179. }
  180. return problem_url;
  181. }
  182. function getTagValue(event_tags, key) {
  183. var pattern = new RegExp('(' + key + ':.+)');
  184. var tagValue = event_tags
  185. .split(',')
  186. .filter(function (v) {
  187. return v.match(pattern);
  188. })
  189. .map(function (v) {
  190. return v.split(':')[1];
  191. })[0]
  192. || 0;
  193. return tagValue;
  194. }
  195. function handlerAlarm(req, params) {
  196. var channel = getChannel(params.send_to);
  197. var fields = {
  198. channel_id: channel.id,
  199. props: {}
  200. };
  201. if (isEventProblem(params)) {
  202. var team_name = channel.team_name
  203. ? channel.team_name
  204. : getTeamByID(channel.team_id).name;
  205. fields.props.attachments = [
  206. createMessage(
  207. SEVERITY_COLORS[params.event_nseverity] || 0,
  208. params.event_date,
  209. params.event_time,
  210. createProblemURL(params.zabbix_url, params.trigger_id, params.event_id, params.event_source)
  211. )
  212. ];
  213. var resp = JSON.parse(req.Post(
  214. Mattermost.post_message,
  215. JSON.stringify(fields)
  216. )
  217. );
  218. if (req.Status() != 201) {
  219. throw '[{0}] {1}'.format(resp.status_code, resp.message);
  220. }
  221. result.tags.__mattermost_post_id = resp.id;
  222. result.tags.__mattermost_channel_id = channel.id;
  223. result.tags.__mattermost_channel_name = channel.name;
  224. result.tags.__mattermost_message_link = getPermalink(
  225. params.mattermost_url,
  226. team_name,
  227. resp.id
  228. );
  229. }
  230. else if (isEventUpdate(params)) {
  231. fields.root_id = getTagValue(params.event_tags, 'mattermost_post_id');
  232. if (params.event_source === '0') {}
  233. fields.props.attachments = [
  234. createMessage(
  235. SEVERITY_COLORS[params.event_nseverity] || 0,
  236. params.event_update_date,
  237. params.event_update_time,
  238. createProblemURL(params.zabbix_url, params.trigger_id, params.event_id, params.event_source),
  239. true
  240. )
  241. ];
  242. resp = JSON.parse(req.Post(
  243. Mattermost.post_message, JSON.stringify(fields)
  244. )
  245. );
  246. if (req.Status() != 201) {
  247. throw '[{0}] {1}'.format(resp.status_code, resp.message);
  248. }
  249. }
  250. else if (isEventResolve(params)) {
  251. fields.channel_id = getTagValue(params.event_tags, 'mattermost_channel_id');
  252. fields.id = getTagValue(params.event_tags, 'mattermost_post_id');
  253. fields.props.attachments = [
  254. createMessage2(
  255. RESOLVE_COLOR,
  256. params.event_date,
  257. params.event_time,
  258. createProblemURL(params.zabbix_url, params.trigger_id, params.event_id, params.event_source)
  259. )
  260. ];
  261. var post_id = getTagValue(params.event_tags, 'mattermost_post_id');
  262. resp = JSON.parse(req.Put(
  263. Mattermost.chat_update.format(post_id),
  264. JSON.stringify(fields)
  265. )
  266. );
  267. if (req.Status() != 200) {
  268. throw '[{0}] {1}'.format(resp.status_code, resp.message);
  269. }
  270. }
  271. }
  272. function handlerEvent(req, params) {
  273. var channel = getChannel(params.send_to);
  274. var fields = {
  275. channel_id: channel.id,
  276. props: {}
  277. };
  278. if (isEventProblem(params)) {
  279. var team_name = channel.team_name
  280. ? channel.team_name
  281. : getTeamByID(channel.team_id).name;
  282. fields.props.attachments = [
  283. createMessage(
  284. SEVERITY_COLORS[params.event_nseverity] || 0,
  285. params.event_date,
  286. params.event_time,
  287. createProblemURL(params.zabbix_url, params.trigger_id, params.event_id, params.event_source)
  288. )
  289. ];
  290. var resp = JSON.parse(req.Post(Mattermost.post_message, JSON.stringify(fields)));
  291. if (req.Status() != 201) {
  292. throw '[{0}] {1}'.format(resp.status_code, resp.message);
  293. }
  294. result.tags.__mattermost_channel_name = channel.name;
  295. result.tags.__mattermost_message_link = getPermalink(
  296. params.mattermost_url,
  297. team_name,
  298. resp.id
  299. );
  300. }
  301. else if (isEventUpdate(params)) {
  302. fields.props.attachments = [
  303. createMessage(
  304. SEVERITY_COLORS[params.event_nseverity] || 0,
  305. params.event_update_date,
  306. params.event_update_time,
  307. createProblemURL(params.zabbix_url, params.trigger_id, params.event_id, params.event_source),
  308. false
  309. )
  310. ];
  311. resp = JSON.parse(req.Post(Mattermost.post_message, JSON.stringify(fields)));
  312. if (req.Status() != 201) {
  313. throw '[{0}] {1}'.format(resp.status_code, resp.message);
  314. }
  315. }
  316. else if (isEventResolve(params)) {
  317. fields.props.attachments = [
  318. createMessage2(
  319. RESOLVE_COLOR,
  320. params.event_recovery_date,
  321. params.event_recovery_time,
  322. createProblemURL(params.zabbix_url, params.trigger_id, params.event_id, params.event_source)
  323. )
  324. ];
  325. resp = JSON.parse(req.Post(Mattermost.post_message2, JSON.stringify(fields)));
  326. if (req.Status() != 201) {
  327. throw '[{0}] {1}'.format(resp.status_code, resp.message2);
  328. }
  329. }
  330. }
  331. // 从这里开始就是设置 恢复状态 信息格式的地方
  332. function createMessage2(
  333. event_severity_color,
  334. event_date,
  335. event_time,
  336. problem_url,
  337. isShort
  338. ) {
  339. var message2 = {
  340. fallbac: params.alert_subject,
  341. title: params.alert_subject,
  342. color: event_severity_color,
  343. footer: "最终解释权归运维所有", // 这里是信息下标,
  344. fields: [
  345. {
  346. title: 'IP:',
  347. value: '{0}'.format(params.host_ip),
  348. short: true
  349. },
  350. {
  351. title: '解决时间:',
  352. value: '{0} {1}'.format(event_date, event_time),
  353. short: true
  354. }
  355. ],
  356. };
  357. if (params.event_source === '0') {
  358. message2.fields.push(
  359. {
  360. title: '严重程度',
  361. value: params.event_severity,
  362. short: true
  363. }
  364. );
  365. }
  366. if (!isShort && params.event_source === '0') {
  367. message2.fields.push(
  368. {
  369. title: '状态',
  370. value: '已解决',
  371. short: true
  372. }
  373. );
  374. }
  375. if (params.event_source !== '0' || params.event_update_status === '1') {
  376. message2.fields.push(
  377. {
  378. title: 'Details',
  379. value: params.alert_message,
  380. short: false
  381. }
  382. );
  383. }
  384. return message2;
  385. }
  386. // 这里是设置 报警状态 信息格式的位置
  387. function createMessage(
  388. event_severity_color,
  389. event_date,
  390. event_time,
  391. problem_url,
  392. isShort
  393. ) {
  394. var message = {
  395. fallbac: params.alert_subject,
  396. title: params.alert_subject,
  397. color: event_severity_color,
  398. footer: "最终解释权归运维所有",
  399. fields: [
  400. {
  401. title: 'IP:',
  402. value: '{0}'.format(params.host_ip),
  403. short: true
  404. },
  405. {
  406. title: '发生时间:',
  407. value: '{0} {1}'.format(event_date, event_time),
  408. short: true
  409. }
  410. ],
  411. };
  412. if (params.event_source === '0') {
  413. message.fields.push(
  414. {
  415. title: '严重程度',
  416. value: params.event_severity,
  417. short: true
  418. }
  419. );
  420. }
  421. if (!isShort && params.event_source === '0') {
  422. message.fields.push(
  423. {
  424. title: '告警描述',
  425. value: params.trigger_description,
  426. short: true
  427. }
  428. );
  429. }
  430. if (params.event_source !== '0' || params.event_update_status === '1') {
  431. message.fields.push(
  432. {
  433. title: 'Details',
  434. value: params.alert_message,
  435. short: false
  436. }
  437. );
  438. }
  439. return message;
  440. }
  441. function validateParams(params) {
  442. if (typeof params.bot_token !== 'string' || params.bot_token.trim() === '') {
  443. throw 'Field "bot_token" cannot be empty';
  444. }
  445. if (isNaN(params.event_id)) {
  446. throw 'Field "event_id" is not a number';
  447. }
  448. if ([0, 1, 2, 3].indexOf(parseInt(params.event_source)) === -1) {
  449. throw 'Incorrect "event_source" parameter given: "' + params.event_source + '".\nMust be 0-3.';
  450. }
  451. if (params.event_source !== '0') {
  452. params.event_nseverity = '0';
  453. params.event_severity = 'Not classified';
  454. params.event_update_status = '0';
  455. params.send_mode = 'event';
  456. }
  457. if (params.event_source === '1' || params.event_source === '2') {
  458. params.event_value = '1';
  459. }
  460. if (params.event_source === '1') {
  461. params.host_name = params.discovery_host_dns;
  462. params.host_ip = params.discovery_host_ip;
  463. }
  464. if ([0, 1, 2, 3, 4, 5].indexOf(parseInt(params.event_nseverity)) === -1) {
  465. throw 'Incorrect "event_nseverity" parameter given: ' + params.event_nseverity + '\nMust be 0-5.';
  466. }
  467. if (typeof params.event_severity !== 'string' || params.event_severity.trim() === '') {
  468. throw 'Field "event_severity" cannot be empty';
  469. }
  470. if (params.event_update_status !== '0' && params.event_update_status !== '1') {
  471. throw 'Incorrect "event_update_status" parameter given: ' + params.event_update_status + '\nMust be 0 or 1.';
  472. }
  473. if (params.event_value !== '0' && params.event_value !== '1') {
  474. throw 'Incorrect "event_value" parameter given: ' + params.event_value + '\nMust be 0 or 1.';
  475. }
  476. if (typeof params.host_ip !== 'string' || params.host_ip.trim() === '') {
  477. throw 'Field "host_ip" cannot be empty';
  478. }
  479. if (typeof params.host_name !== 'string' || params.host_name.trim() === '') {
  480. throw 'Field "host_name" cannot be empty';
  481. }
  482. if (typeof params.mattermost_url !== 'string' || params.mattermost_url.trim() === '') {
  483. throw 'Field "mattermost_url" cannot be empty';
  484. }
  485. if (!/^(http|https):\/\/.+/.test(params.mattermost_url)) {
  486. throw 'Field "mattermost_url" must contain a schema';
  487. }
  488. if (['alarm', 'event'].indexOf(params.send_mode) === -1) {
  489. throw 'Incorrect "send_mode" parameter given: ' + params.send_mode + '\nMust be "alarm" or "event".';
  490. }
  491. if (typeof params.send_to !== 'string' || params.send_to.trim() === '') {
  492. throw 'Field "send_to" cannot be empty';
  493. }
  494. if (isNaN(params.trigger_id) && params.event_source === '0') {
  495. throw 'field "trigger_id" is not a number';
  496. }
  497. if (typeof params.zabbix_url !== 'string' || params.zabbix_url.trim() === '') {
  498. throw 'Field "zabbix_url" cannot be empty';
  499. }
  500. if (!/^(http|https):\/\/.+/.test(params.zabbix_url)) {
  501. throw 'Field "zabbix_url" must contain a schema';
  502. }
  503. }
  504. try {
  505. var params = JSON.parse(value);
  506. validateParams(params);
  507. var req = new CurlHttpRequest(),
  508. fields = {},
  509. result = {tags: {}};
  510. if (typeof params.HTTPProxy === 'string' && params.HTTPProxy.trim() !== '') {
  511. req.SetProxy(params.HTTPProxy);
  512. }
  513. req.AddHeader('Content-Type: application/json; charset=utf-8');
  514. req.AddHeader('Authorization: Bearer ' + params.bot_token);
  515. params.mattermost_url = params.mattermost_url.replace(/\/+$/, '');
  516. params.zabbix_url = params.zabbix_url.replace(/\/+$/, '');
  517. var APIEndpoint = params.mattermost_url + '/api/v4/';
  518. var Mattermost = {
  519. post_message: APIEndpoint + 'posts',
  520. get_channel: APIEndpoint + 'channels/{0}',
  521. get_team: APIEndpoint + 'teams/{0}',
  522. chat_update: APIEndpoint + 'posts/{0}',
  523. direct_channel: APIEndpoint + 'channels/direct',
  524. channel_byname: APIEndpoint + 'teams/name/{0}/channels/name/{1}',
  525. user_byname: APIEndpoint + 'users/username/{0}',
  526. bot_user: APIEndpoint + 'users/me'
  527. };
  528. params.send_mode = params.send_mode.toLowerCase();
  529. params.send_mode = params.send_mode in SEND_MODE_HANDLERS
  530. ? params.send_mode
  531. : 'alarm';
  532. SEND_MODE_HANDLERS[params.send_mode](req, params);
  533. if (params.event_source === '0') {
  534. return JSON.stringify(result);
  535. }
  536. else {
  537. return 'OK';
  538. }
  539. }
  540. catch (error) {
  541. Zabbix.Log(4, '[ Mattermost Webhook ] Mattermost notification failed: ' + error);
  542. throw 'Mattermost notification failed: ' + error;
  543. }

5、添加用户

用户的类型有管理员和超级管理员

添加用户

为用户添加报警媒介

 如果用户没有添加报警媒介则无法使用该媒介进行报警2

为用户添加主机权限

 刚添加的用户是无法看到已经监控的任何一台服务器的,原因是没有赋予用户权限

 此时再将用户添加至这个用户组中,再进行登录,就可以看到那些服务器了

6、添加动作

Zabbix 的动作,主要作用是当触发器被触发后,执行相关操作的。

要创建动作需要有两个必须的元素:

  • 条件 规定什么情况下执行此动作

  • 操作 动作具体操作什么

操作可以是:

发送通知 执行系统的内部命令 操作可以是多个步骤,是按照设置好的顺序依次执行的。

发送通知 和 执行内部命令 可以单独使用他们,也可以让两者一起配合使用。 比如可以在服务器意外停止的时候,先执行 一个内部命令,假如执行命令后,服务仍然没有恢复为 正常状态。则可以再发送一个通知。

添加动作

 

关于步骤就是起始步骤到下一个步骤,假如执行的步骤只有一步,这里可以选择 1 - 1

步骤持续时间 是此步骤执行完毕需要多长时间,比如发送一封电子邮件可能需要 1 秒,删除一些没有的文件需要 1 分钟,重启一个 Java 的应用程序需要 5 分钟等。 但是这里的取值只能是 0 或者 60-604800(单位是秒) 其中的一个。 这里设置的时间会覆盖之前的 默认操作步骤持续时间,假设这里使用 0, 就会使用之前的 默认操作步骤持续时间 的值(默认是 1h)

发送消息可以是一个或多个组,也可以是一个或多个具体的用户。 这里我仅仅选择一个我之前创建的用户 shark


仅送到

仅送到

这里就是选择以那种 报警媒介 发送通知消息

一个用户是可以有多个 报警媒介 的,比如电子邮件,企业微信、钉钉等。

可以选择所有的,也可以i选择某一个。

这里我选择的是之前创建的报警媒介。如下图:

Custom message 是否在这里自定义消息,假如这里设置了,就会覆盖在 报警媒介类型中设置的消息模板。这里我们不做进一步的操作。

条件 这个需要为此此操作步骤设置一个触发条件 此步骤不是必须的

验证动作是否触发

注意:假如你设置了这个动作之前,触发器已经被触发了,并且当前获取的数据之一处于触发器指标的外部,则触发器不会重复产生事件,只能等触发器再次被触发产生新的问题才行。如下图就是这种情况:

7、可视化

zabbix 提供了众多的可视化工具直观展示,如 graph、screen 及 map 等。前面也看到过一些简单的图形展示。如果想要把多个相关的数据定义在同一张图上去查看,就需要去自定义图形

自定义图形中可以集中展示多个时间序列的数据流。支持四种不同形式的图形

  • 线状图(normal)

  • 堆叠面积图(stacked)、

  • 饼图(pie)”

  • 分离型饼图(exploded)

添加自定义图形

 设置过程如下:进入 配置 ---> 主机 ---> node1 ---> 图形,选择右上角创建图形:

聚合图形

幻灯片

拓扑图

在拓扑图中,可以定义成一个复杂的网络连接图,可以使用一台主机来连接另一台主机,这样的话,就可以查看出到底是哪个链接出了问题

8、自定义模板

每一个主机的监控项都很多,一个一个的添加实在是太头疼了,更何况,可能不止一个主机。可以把一个 redis 的监控项添加进一个模板里,这样更方便于我们以后的添加。

创建模板

模板中的监控项、触发器等的添加和上面的步骤一样  

使用自定义模板

也可以在创建主机时直接使用已有模板

9、宏

  • 宏是一种抽象(Abstraction),它根据一系列预定义的规则替换一定的文本模式,而解释器或编译器在遇到宏时会自动进行这一模式替换。类似地,zabbix基于宏保存预设文本模式,并且在调用时将其替换为其中的文本。

  • zabbix有许多内置的宏,如{HOST.NAME}、{HOST.IP}、{TRIGGER.DESCRIPTION}、{TRIGGER.NAME}、{TRIGGER.EVENTS.ACK}等。  

  • 详细信息请参考官方文档 

就是定义一个变量 起一个值

宏一共有三种级别,分别是全局宏、模板宏、主机宏。不同级别的宏的适用范围也不一样。

  • 全局宏也可以作用于所有的模板宏和主机宏,优先级最低。

  • 模板宏则可以作用于所有使用该模板的主机,优先级排在中间。

  • 主机宏则只对单个主机有效,优先级最高。

宏的类型

  • 宏的类型分为系统内建的宏和用户自定义的宏。

  • 为了更强的灵活性,zabbix还支持在全局、模板或主机级别使用用户自定义宏(user macro)。

  • 系统内建的宏在使用的时候需要{MACRO}的语法格式,用户自定义宏要使用{$MACRO}这种特殊的语法格式。

  • 宏可以应用在item keys和descriptions、trigger名称和表达式、主机接口IP/DNS及端口、discovery机制的SNMP协议的相关信息中……

  • 宏的名称只能使用大写字母、数字及下划线

  • 进一步信息请参考官方文档

定义宏

全局宏

模板宏和主机宏和上述方法类似,一个在模板里面找,一个在主机里面找

使用宏

可以在任何地方使用

使用效果

10、监控项自动发现(LLD)

自动发现(LLD)提供了一种为受监控节点的不同监控指标自动创建监控项,触发器和图形的分发;此外还可以配置 Zabbix 根据定期执行发现后得到的实际结果,来移除不需要的监控。

暂时只用到了系统自带的一些监控,并没有自己创建的需求,所以暂不做,如有想法可以百度。

三、用户参数(自定义key)

自定义用户参数,也就是自定义key,有时可能想要运行一个代理检查,而不是 Zabbix 的预定义,就可以编写一个命令来检索需要的数据,并将其包含在代理配置文件("UserParameter"配置参数)的用户参数中

1、格式

  1. UserParameter=<key>,<command>
  2. # 等号右边固定,key就类似于net.tcp.listen,command就是linux中的命令
  3. # 配置完成后需要重新启动agent端

、用法展示

选择一个命令,例如free | awk '/^Mem/{print $3}'

添加用户参数

  1. cd /etc/zabbix/zabbix_agentd.d/
  2. vim memory_usage.conf
  3. UserParameter=memory.used,free | awk '/^Mem/{print $3}'
  4. # 重启服务
  5. systemctl restart zabbix-agent.service
  6. # 在server端查询
  7. zabbix_get -s agent端的IP -p 10050 -k "memory.used"
  8. # 这个命令在agent源码包解压后的bin目录中

在监控项中使用该参数  

3、升级版用法(带参数的监控项)

添加一个带参数的key

先找到一个命令,例如cat /proc/meminfo

添加用户参数

  1. cd /etc/zabbix/zabbix_agentd.d/
  2. vim memory_usage.conf
  3. UserParameter=memory.stats[*],cat /proc/meminfo | awk '/^$1/{print $$2}'
  4. # $$2:表示不是调前边位置参数的$2 ,而是 awk 的参数 $2
  5. # $1是调用前边的[*],位置参数,第一个参数
  6. # 重启服务
  7. systemctl restart zabbix-agent.service
  8. # 在server端查询
  9. ./zabbix_get -s 10.9.29.117 -p 10050 -k "memory.stats[MemTotal]"
  10. > 1863252
  11. ./zabbix_get -s 10.9.29.117 -p 10050 -k "memory.stats[Cache]"
  12. > 133400

 

四、网络发现

设置自动发现规则

五、agent端各种监控方式

主动与被动都是对于agent端而言的

  • 被动检测:server向agent请求获取配置的各监控项相关的数据,agent接收请求、获取数据并响应给server;

  • 主动检测:agent向server请求与自己相关监控项配置,主动地将server配置的监控项相关的数据发送给server;

前面介绍的都是被动模式

1、主动监控

配置
  1. # 配置文件中
  2. vim /etc/zabbix/zabbix_agentd.conf
  3. # 给哪个监控server 发送数据
  4. ServerActive=serverIP
  5. Hostname=node1.qfedu.com # 自己的主机名,假设主机定死了,不设置下一项
  6. #HostnameItem= # 如果自己的主机名易变动,这一项相当于key一样去匹配
  7. # 若后两项同时启用,下边一个选择生效

设置一个主动监控

主动模式下,右侧ZBX不会亮起

 

使用sender手动发送数据

首先需要配置一个采集器

  1. zabbix_sender
  2.   -z zabbix_server_ip
  3.   -p zabbix_server_port
  4.   -s zabbix_agent_hostname
  5.   -k key
  6.   -o value 值
zabbix_sender -z 10.9.29.116 -p 10050 -s song1 -k system.cpu.switches -o 9999

2、snmp方式

SNMP:简单网络管理协议;(非常古老的协议)

  • 三种通信方式:读(get, getnext)、写(set)、trap(陷阱);

  • 端口:161/udp 162/udp

为无法安装agent服务的设备使用,例如交换机,路由器

linux启用snmp
  1. # 安装
  2. yum install net-snmp net-snmp-utils
  3. # 配置文件:定义ACL(访问控制列表)
  4. vim /etc/snmp/snmpd.conf

  1. # 可用的视图 OID
  2. # 示例:.1.3.6.1.2.1.1.1.0 系统描述信息
  3. .1.3.6.1.2.1.
  4.    1.1.0:系统描述信息,SysDesc
  5.    1.3.0:监控时间, SysUptime
  6.    1.5.0:主机名,SysName
  7.    1.7.0:主机提供的服务,SysService
  8. .1.3.6.1.2.2.
  9.    2.1.0:网络接口数目
  10.    2.2.1.2:网络接口的描述信息
  11.    2.2.1.3:网络接口类型
  1. # 启动
  2. # 被监控端开启的服务
  3. systemctl start snmpd
  4. # 监控端开启的服务(如果允许被监控端启动主动监控时启用)
  5. systemctl start snmptrapd
  6. # 测试
  7. snmpget -v 2c -c public 被测试主机的IP OID
  8. snmpwalk -v 2c -c public HOST OID # 通过这个端口查询到的数据,全列出了
  9. # 例子
  10. snmpget -v 2c -c public 10.9.29.117 .1.3.6.1.2.1.1.1.0
  11. > SNMPv2-MIB::sysDescr.0 = STRING: Linux tomcat2 3.10.0-957.el7.x86_64 #1 SMP Thu Nov 8 23:39:32 UTC 2018 x86_64
  12. snmpwalk -v 2c -c public 10.9.29.117 .1.3.6.1.2.1.1.1.0
  13. > SNMPv2-MIB::sysDescr.0 = STRING: Linux tomcat2 3.10.0-957.el7.x86_64 #1 SMP Thu Nov 8 23:39:32 UTC 2018 x86_64
  14. snmpwalk -v 2c -c public 10.9.29.117 .1.3.6.1.2.1.1.1.1
  15. > SNMPv2-MIB::sysDescr.1 = No Such Instance currently exists at this OID
配置snmp监控
  1. # 添加视图
  2. vim /etc/snmp/snmpd.conf
  3. view systemview included .1.3.6.1.2.1.1
  4. view systemview included .1.3.6.1.2.1.2 # 网络接口的相关数据
  5. view systemview included .1.3.6.1.4.1.2021 # 系统资源负载,memory, disk io, cpu load
  6. view systemview included .1.3.6.1.2.1.25

可以添加以下模板,方便观察  

 

设置入站出站packets 的SNMP监控

监控网络设备:交换机、路由器的步骤:

  • 把交换机、路由器的SNMP 把对应的OID的分支启用起来

  • 了解这些分支下有哪些OID,他们分别表示什么意义

  • 我们要监控的某一数据:如交换机的某一个接口流量、报文,发送、传入传出的报文数有多少个;传入传出的字节数有多少个,把OID取出来,保存

  1. # 入站
  2. interface traffic packets(in)

  1. # 出站
  2. interface traffic packets(out)

六、分布式监控

Zabbix代理可以代表Zabbix服务器收集性能和可用性数据。这样,代理可以承担一些收集数据的负担,并减轻Zabbix服务器的负担。

1、添加zabbix-proxy主机—服务器设置

  1. # 安装zabbix-proxy
  2. rpm -Uvh https://repo.zabbix.com/zabbix/5.0/rhel/7/x86_64/zabbix-release-5.0-1.el7.noarch.rpm
  3. yum -y install zabbix-proxy-mysql zabbix-get zabbix-agent zabbix-sender
  4. # 为zabbix-proxy配置数据库,该数据库必须是独立的,不能和server端使用一个
  5. create database zabbix_proxy character set utf8 collate utf8_bin;
  6. create user zabbix@localhost identified by 'password';
  7. grant all privileges on zabbix_proxy.* to zabbix@localhost;
  8. # 导入数据
  9. zcat /usr/share/doc/zabbix-proxy-mysql*/schema.sql.gz | mysql -uzabbix -p密码 zabbix_proxy
  10. # 配置zabbix-proxy
  11. vi /etc/zabbix/zabbix_proxy.conf
  12. # 数据库信息
  13. DBHost=localhost
  14. DBName=zabbix_proxy
  15. DBUser=zabbix
  16. DBPassword=密码
  17. # 配置服务
  18. # 代理模式 0 主动上报给 Zabbix Server, 1 被动,默认 0
  19. ProxyMode=0
  20. Server=Zabbix 服务器的IP
  21. # 唯一的、区分大小写的代理名称。确保服务器知道代理名称!如果未定义,则从HostnameItem获取值。
  22. Hostname=bj-proxy
  23. # 允许日志文件最大多少 MB, 默认是 0,就是不限制大小,也就是不进行日志切割
  24. LogFileSize=2
  25. # 即使数据已经与服务器同步,代理也会在本地保留N个小时。如果第三方应用程序将使用本地数据,则可以使用此参数。默认 0
  26. ProxyLocalBuffer=0
  27. # 如果没有与Zabbix服务器连接,代理将保留数据N小时。旧数据将丢失。默认 1
  28. ProxyOfflineBuffer=1
  29. # 心跳消息的频率(秒)。用于监控服务器端代理的可用性。0-已禁用心跳消息。对于处于被动模式的代理,此参数将被忽略。默认 60
  30. HeartbeatFrequency=60
  31. # 向服务端更新监控配置的间隔时间。为了快速看到实验效果,这里设置5秒,默认3600秒
  32. ConfigFrequency=5
  33. # 向服务端发送监控数据的间隔时间,单位秒
  34. DataSenderFrequency=5
  35. # 启动服务
  36. systemctl start zabbix-proxy.service
  1. # 在被zabbix-proxy监控的agent端将IP设置为zabbix-proxy的IP
  2. vi /etc/zabbix/zabbix_agentd.conf
  3. # Zabbix Proxy 的 IP
  4. Server=192.168.122.100
  5. # 假如开启了 agent 的主动模式,这里也是 Zabbix Proxy 的 IP
  6. ServerActive=192.168.122.100

2、页面设置

 

3、为proxy添加监控主机

这里嫌麻烦直接修改已有主机,添加新的也很简单,自己摸索

 

 修改完毕后,如果数据正常输出,就表示成功

七、开始监控

1、监控php-fpm服务状态

  1. # 下载php-fpm
  2. yum -y install php-fpm
  3. # 打开php-fpm的状态页面
  4. vim /etc/php-fpm.d/www.conf
  5. user = nginx
  6. group = nginx
  7. pm.status_path = /status # php-fpm 的状态监测页面
  8. ping.path = /ping # ping 接口,存活状态是否ok
  9. ping.response = pong # 响应内容pong
  10. # 开启服务
  11. systemctl start php-fpm
  12. # 设置nginx
  13. vim /etc/nginx/nginx.conf
  14. location ~ \.php$ {
  15. fastcgi_pass 127.0.0.1:9000;
  16. fastcgi_index index.php;
  17. fastcgi_param SCRIPT_FILENAME $document_root$fastcgi_script_name;
  18. include fastcgi_params;
  19. }
  20. location ~* /(status|ping) {
  21. fastcgi_pass 127.0.0.1:9000;
  22. fastcgi_index index.php;
  23. fastcgi_param SCRIPT_FILENAME $fastcgi_script_name;
  24. include fastcgi_params;
  25. allow 127.0.0.1; # 因为这个页面很重要,所有需加访问控制
  26. deny all;
  27. access_log off; # 访问这个页面就不用记录日志了
  28. }
  29. # 复制状态信息页面到网站根目录
  30. cp /usr/share/fpm/status.html /usr/share/nginx/html/
  31. # 开启nginx
  32. systemctl start nginx
  33. # 查看状态
  34. curl 127.0.0.1/status
  1. # 添加用户参数
  2. cd /etc/zabbix/zabbix_agentd.d/
  3. vim php_status.conf
  4. UserParameter=php-fpm.stats[*],curl -s http://127.0.0.1/status | awk '/^$1/{print $$NF}'
  5. # 设置用户参数为php-fpm.stats[*],$1为第一个参数;$$NF为awk中的参数,倒数第一列
  6. # 重启服务
  7. systemctl restart zabbix-agent
  8. # 在server端检查
  9. ./zabbix_get -s 10.9.29.117 -p 10050 -k "php-fpm.stats[idle]"
  10. ./zabbix_get -s 10.9.29.117 -p 10050 -k "php-fpm.stats[active]"
  11. ./zabbix_get -s 10.9.29.117 -p 10050 -k "php-fpm.stats[max active]"
  12. # 后续添加监控项自行解决

2、web服务器监控

例如nginx,httpd,监测流量,上传速度,下载速度,并发数

创建web监控

 

查看web监控

 

3、监控tomcat

Java虚拟机(JVM)具有内置的插件,使您能够使用JMX监视和管理它。您还可以使用JMX监视工具化的应用程序。

  1. # server端
  2. # 安装 zabbix-java-gateway程序包
  3. yum -y install zabbix-java-gateway
  4. # 配置javagateway
  5. vim /etc/zabbix/zabbix_java_gateway.conf # 安装完后,会生成一个java_gateway 的配置文件
  6. LISTEN_IP="0.0.0.0" #监听服务器地址
  7. LISTEN_PORT=10052 #监听zabbix_java进程的端口,默认是10052
  8. PID_FILE="/tmp/zabbix_java.pid" #zabbix_java的pid路径
  9. START_POLLERS=5 #zabbix_java的进程数
  10. TIMEOUT=10 #zabbix_java的超时时间
  11. # 可不用修改,直接开启服务
  12. systemctl start zabbix-java-gateway.service
  13. # 设置server端
  14. vim /etc/zabbix/zabbix_server.conf
  15. JavaGateway=172.16.0.70 #即 zabbix server IP地址
  16. JavaGatewayPort=10052
  17. StartJavaPollers=5 #监控项
  18. # 重启服务
  19. systemctl restart zabbix-server
  20. # agent端
  21. # 在agent端安装tomcat
  22. yum -y install java-1.8.0-openjdk-devel tomcat-admin-webapps tomcat-docs-webapp
  23. # 配置tomcat
  24. vim /etc/sysconfig/tomcat
  25. CATALINA_OPTS="-Djava.rmi.server.hostname=本机IP -Djavax.management.builder.initial= -Dcom.sun.management.jmxremote=true -Dcom.sun.management.jmxremote.port=12345 -Dcom.sun.management.jmxremote.ssl=false -Dcom.sun.management.jmxremote.authenticate=false"
  26. # 启动服务
  27. systemctl start tomcat

 页面设置

然后稍候片刻,如果配置没错就可以看到JMX变绿,且可以查看到最新数据

4、监控mysql

需求一:监控MySQL的状态,当状态发生异常,发出报警;

需求二:监控MySQL的操作,并用图表展现;

存活监测
  1. # 创建一个普通用户,并授权
  2. grant usage on *.* to zabbix@127.0.0.1 identified by 'QFedu@123';
  3. # 创建一个包含用户名和密码的文件
  4. mkdir /var/lib/zabbix/
  5. vim /var/lib/zabbix/.my.cnf
  6. [mysqladmin]
  7. user=zabbix
  8. host=127.0.0.1
  9. password='QFedu@123'
  10. # 使用这个命令监测
  11. HOME=/var/lib/zabbix/ mysqladmin ping |grep -c alive
  12. # 存活输出1 不存活输出2
  13. # 添加自定义key
  14. vim /etc/zabbix/zabbix_agentd.d/userparameter_mysql.conf
  15. UserParameter=mysql.ping,HOME=/var/lib/zabbix mysqladmin ping | grep -c alive
  16. # 检查命令是否正常
  17. /usr/sbin/zabbix_agentd -t mysql.ping
  18. > mysql.ping [t|1]
  19. # 重启服务
  20. systemctl restart zabbix-agent.service
  21. # 在server端检查
  22. ./zabbix_get -s 10.9.29.117 -p 10050 -k "mysql.ping"

其他性能监测

使用一个自定义的shell脚本来进行监测

  1. # 添加一个自定义的key
  2. vim /etc/zabbix/zabbix_agentd.d/userparameter_mysql.conf
  3. # 监控mysql性能的脚本
  4. UserParameter=mysql.status[*],/etc/zabbix/zabbix_agentd.d/check_mysql.sh $1
  5. # 查看版本
  6. UserParameter=mysql.version,mysql -V

  1. # 脚本内容
  2. vim /etc/zabbix/zabbix_agentd.d/check_mysql.sh
  3. #!/bin/bash
  4. # -------------------------------------------------------------------------------
  5. # FileName: check_mysql.sh
  6. # Revision: 1.0
  7. # -------------------------------------------------------------------------------
  8. # Copyright:
  9. # License: GPL
  10. # 用户名
  11. MYSQL_USER='zabbix'
  12. # 密码
  13. MYSQL_PWD='QFedu@123'
  14. # 主机地址/IP
  15. MYSQL_HOST='127.0.0.1'
  16. # 端口
  17. MYSQL_PORT='3306'
  18. # 数据连接
  19. MYSQL_CONN="/usr/bin/mysqladmin -u${MYSQL_USER} -p${MYSQL_PWD} -h${MYSQL_HOST} -P${MYSQL_PORT}"
  20. # 参数是否正确
  21. if [ $# -ne "1" ];then
  22. echo "arg error!"
  23. fi
  24. # 获取数据
  25. case $1 in
  26. Uptime)
  27. result=`${MYSQL_CONN} status 2>/dev/null |cut -f2 -d":"|cut -f1 -d"T"`
  28. echo $result
  29. ;;
  30. Com_update)
  31. result=`${MYSQL_CONN} extended-status 2>/dev/null |grep -w "Com_update"|cut -d"|" -f3`
  32. echo $result
  33. ;;
  34. Slow_queries)
  35. result=`${MYSQL_CONN} status 2>/dev/null |cut -f5 -d":"|cut -f1 -d"O"`
  36. echo $result
  37. ;;
  38. Com_select)
  39. result=`${MYSQL_CONN} extended-status 2>/dev/null |grep -w "Com_select"|cut -d"|" -f3`
  40. echo $result
  41. ;;
  42. Com_rollback)
  43. result=`${MYSQL_CONN} extended-status 2>/dev/null |grep -w "Com_rollback"|cut -d"|" -f3`
  44. echo $result
  45. ;;
  46. Questions)
  47. result=`${MYSQL_CONN} status 2>/dev/null |cut -f4 -d":"|cut -f1 -d"S"`
  48. echo $result
  49. ;;
  50. Com_insert)
  51. result=`${MYSQL_CONN} extended-status 2>/dev/null |grep -w "Com_insert"|cut -d"|" -f3`
  52. echo $result
  53. ;;
  54. Com_delete)
  55. result=`${MYSQL_CONN} extended-status 2>/dev/null |grep -w "Com_delete"|cut -d"|" -f3`
  56. echo $result
  57. ;;
  58. Com_commit)
  59. result=`${MYSQL_CONN} extended-status 2>/dev/null |grep -w "Com_commit"|cut -d"|" -f3`
  60. echo $result
  61. ;;
  62. Bytes_sent)
  63. result=`${MYSQL_CONN} extended-status 2>/dev/null |grep -w "Bytes_sent" |cut -d"|" -f3`
  64. echo $result
  65. ;;
  66. Bytes_received)
  67. result=`${MYSQL_CONN} extended-status 2>/dev/null |grep -w "Bytes_received" |cut -d"|" -f3`
  68. echo $result
  69. ;;
  70. Com_begin)
  71. result=`${MYSQL_CONN} extended-status 2>/dev/null |grep -w "Com_begin"|cut -d"|" -f3`
  72. echo $result
  73. ;;
  74. *)
  75. echo "Usage:$0(Uptime|Com_update|Slow_queries|Com_select|Com_rollback|Questions|Com_insert|Com_delete|Com_commit|Bytes_sent|Bytes_received|Com_begin)"
  76. ;;
  77. esac

  1. # 授权
  2. chmod +x /etc/zabbix/zabbix_agentd.d/check_mysql.sh
  3. chown zabbix.zabbix /etc/zabbix/zabbix_agentd.d/check_mysql.sh
  1. # 在server端检查
  2. ./zabbix_get -s 10.9.29.117 -p 10050 -k "mysql.status[Com_update]"
  3. ./zabbix_get -s 10.9.29.117 -p 10050 -k "mysql.status[Uptime]"
5.0版本新方法

上面的只是给你提示可以这么做,在新版本中,操作更为便利

然后,下载模板文件,或者直接复制

文件地址

  1. # 创建一个包含用户名和密码的文件
  2. mkdir /var/lib/zabbix/
  3. vim /var/lib/zabbix/.my.cnf
  4. [mysqladmin]
  5. user=zabbix
  6. host=127.0.0.1
  7. password='QFedu@123'
  8. # 或者你懒得去看,直接复制这个
  9. vim /etc/zabbix/zabbix_agentd.d/Template_DB_MySQL.conf
  10. #template_db_mysql.conf created by Zabbix for "Template DB MySQL" and Zabbix 4.2
  11. #For OS Linux: You need create .my.cnf in zabbix-agent home directory (/var/lib/zabbix by default)
  12. #For OS Windows: You need add PATH to mysql and mysqladmin and create my.cnf in %WINDIR%\my.cnf,C:\my.cnf,BASEDIR\my.cnf https://dev.mysql.com/doc/refman/5.7/en/option-files.html
  13. #The file must have three strings:
  14. #[client]
  15. #user='zbx_monitor'
  16. #password='<password>'
  17. #
  18. UserParameter=mysql.ping[*], mysqladmin -h"$1" -P"$2" ping
  19. UserParameter=mysql.get_status_variables[*], mysql -h"$1" -P"$2" -sNX -e "show global status"
  20. UserParameter=mysql.version[*], mysqladmin -s -h"$1" -P"$2" version
  21. UserParameter=mysql.db.discovery[*], mysql -h"$1" -P"$2" -sN -e "show databases"
  22. UserParameter=mysql.dbsize[*], mysql -h"$1" -P"$2" -sN -e "SELECT COALESCE(SUM(DATA_LENGTH + INDEX_LENGTH),0) FROM INFORMATION_SCHEMA.TABLES WHERE TABLE_SCHEMA='$3'"
  23. UserParameter=mysql.replication.discovery[*], mysql -h"$1" -P"$2" -sNX -e "show slave status"
  24. UserParameter=mysql.slave_status[*], mysql -h"$1" -P"$2" -sNX -e "show slave status"

  1. # 重启服务
  2. systemctl restart zabbix-agent.service

八、常用自定义监控项

1、mysql

  1. version:数据库版本
  2. key_buffer_size:myisam的索引buffer大小
  3. sort_buffer_size:会话的排序空间(每个线程会申请一个)
  4. join_buffer_size:这是为链接操作分配的最小缓存大小,这些连接使用普通索引扫描、范围扫描、或者连接不适用索引
  5. max_connections:最大允许同时连接的数量
  6. max_connect_errors:允许一个主机最多的错误链接次数,如果超过了就会拒绝之后链接(默认100)。可以使用flush hosts命令去解除拒绝
  7. open_files_limits:操作系统允许mysql打开的文件数量,可以通过opened_tables状态确定是否需要增大table_open_cache,如果opened_tables比较大且一直还在增大说明需要增大table_open_cache
  8. max-heap_tables_size:建立的内存表的最大大小(默认16M)这个参数和tmp_table_size一起限制内部临时表的最大值(取这两个参数的小的一个),如果超过限制,则表会变为innodb或myisam引擎,(5.7.5之前是默认是myisam,5.7.6开始是innodb,可以通过internal_tmp_disk_storage_engine参数调整)。
  9. max_allowed_packet:一个包的最大大小
  10. ##########GET INNODB INFO
  11. #INNODB variables
  12. innodb_version:
  13. innodb_buffer_pool_instances:将innodb缓冲池分为指定的多个(默认为1)
  14. innodb_buffer_pool_size:innodb缓冲池大小、5.7.5引入了innodb_buffer_pool_chunk_size,
  15. innodb_doublewrite:是否开启doublewrite(默认开启)
  16. innodb_read_io_threads:IO读线程的数量
  17. innodb_write_io_threads:IO写线程的数量
  18. ########innodb status
  19. innodb_buffer_pool_pages_total:innodb缓冲池页的数量、大小等于innodb_buffer_pool_size/(16*1024)
  20. innodb_buffer_pool_pages_data:innodb缓冲池中包含数据的页的数量
  21. ########## GET MYSQL HITRATE
  22. 1、查询缓存命中率
  23. 如果Qcache_hits+Com_select<>0则为 Qcache_hits/(Qcache_hits+Com_select),否则为0
  24. 2、线程缓存命中率
  25. 如果Connections<>0,则为1-Threads_created/Connections,否则为0
  26. 3、myisam键缓存命中率
  27. 如果Key_read_requests<>0,则为1-Key_reads/Key_read_requests,否则为0
  28. 4、myisam键缓存写命中率
  29. 如果Key_write_requests<>0,则为1-Key_writes/Key_write_requests,否则为0
  30. 5、键块使用率
  31. 如果Key_blocks_used+Key_blocks_unused<>0,则Key_blocks_used/(Key_blocks_used+Key_blocks_unused),否则为0
  32. 6、创建磁盘存储的临时表比率
  33. 如果Created_tmp_disk_tables+Created_tmp_tables<>0,则Created_tmp_disk_tables/(Created_tmp_disk_tables+Created_tmp_tables),否则为0
  34. 7、连接使用率
  35. 如果max_connections<>0,则threads_connected/max_connections,否则为0
  36. 8、打开文件比率
  37. 如果open_files_limit<>0,则open_files/open_files_limit,否则为0
  38. 9、表缓存使用率
  39. 如果table_open_cache<>0,则open_tables/table_open_cache,否则为0

2、redis

  1. vim /usr/local/zabbix/etc/zabbix_agentd.conf.d/redis.conf
  2. UserParameter=Redis.Status,/usr/local/redis/bin/redis-cli -h 127.0.0.1 -p 6379 ping |grep -c PONG
  3. UserParameter=Redis_conn[*],/usr/local/redis/bin/redis-cli -h $1 -p $2 info | grep -w "connected_clients" | awk -F':' '{print $2}'
  4. UserParameter=Redis_rss_mem[*],/usr/local/redis/bin/redis-cli -h $1 -p $2 info | grep -w "used_memory_rss" | awk -F':' '{print $2}'
  5. UserParameter=Redis_lua_mem[*],/usr/local/redis/bin/redis-cli -h $1 -p $2 info | grep -w "used_memory_lua" | awk -F':' '{print $2}'
  6. UserParameter=Redis_cpu_sys[*],/usr/local/redis/bin/redis-cli -h $1 -p $2 info | grep -w "used_cpu_sys" | awk -F':' '{print $2}'
  7. UserParameter=Redis_cpu_user[*],/usr/local/redis/bin/redis-cli -h $1 -p $2 info | grep -w "used_cpu_user" | awk -F':' '{print $2}'
  8. UserParameter=Redis_cpu_sys_cline[*],/usr/local/redis/bin/redis-cli -h $1 -p $2 info | grep -w "used_cpu_sys_children" | awk -F':' '{print $2}'
  9. UserParameter=Redis_cpu_user_cline[*],/usr/local/redis/bin/redis-cli -h $1 -p $2 info | grep -w "used_cpu_user_children" | awk -F':' '{print $2}'
  10. UserParameter=Redis_keys_num[*],/usr/local/redis/bin/redis-cli -h $1 -p $2 info | grep -w "$$1" | grep -w "keys" | grep db$3 | awk -F'=' '{print $2}' | awk -F',' '{print $1}'
  11. UserParameter=Redis_loading[*],/usr/local/redis/bin/redis-cli -h $1 -p $2 info | grep loading | awk -F':' '{print $$2}'
  12. Redis.Status --检测Redis运行状态, 返回整数
  13. Redis_conn --检测Redis成功连接数,返回整数
  14. Redis_rss_mem --检测Redis系统分配内存,返回整数
  15. Redis_lua_mem --检测Redis引擎消耗内存,返回整数
  16. Redis_cpu_sys --检测Redis主程序核心CPU消耗率,返回整数
  17. Redis_cpu_user --检测Redis主程序用户CPU消耗率,返回整数
  18. Redis_cpu_sys_cline --检测Redis后台核心CPU消耗率,返回整数
  19. Redis_cpu_user_cline --检测Redis后台用户CPU消耗率,返回整数
  20. Redis_keys_num --检测库键值数,返回整数
  21. Redis_loding --检测Redis持久化文件状态,返回整数

3、nginx

  1. vim /etc/nginx/conf.d/default.conf
  2. location /nginx-status
  3. {
  4. stub_status on;
  5. access_log off;
  6. allow 127.0.0.1;
  7. deny all;
  8. }
  9. vim /usr/local/zabbix/etc/zabbix_agentd.conf.d/nginx.conf
  10. UserParameter=Nginx.active,/usr/bin/curl -s "http://127.0.0.1:80/nginx-status" | awk '/Active/ {print $NF}'
  11. UserParameter=Nginx.read,/usr/bin/curl -s "http://127.0.0.1:80/nginx-status" | grep 'Reading' | cut -d" " -f2
  12. UserParameter=Nginx.wrie,/usr/bin/curl -s "http://127.0.0.1:80/nginx-status" | grep 'Writing' | cut -d" " -f4
  13. UserParameter=Nginx.wait,/usr/bin/curl -s "http://127.0.0.1:80/nginx-status" | grep 'Waiting' | cut -d" " -f6
  14. UserParameter=Nginx.accepted,/usr/bin/curl -s "http://127.0.0.1:80/nginx-status" | awk '/^[ \t]+[0-9]+[ \t]+[0-9]+[ \t]+[0-9]+/ {print $1}'
  15. UserParameter=Nginx.handled,/usr/bin/curl -s "http://127.0.0.1:80/nginx-status" | awk '/^[ \t]+[0-9]+[ \t]+[0-9]+[ \t]+[0-9]+/ {print $2}'
  16. UserParameter=Nginx.requests,/usr/bin/curl -s "http://127.0.0.1:80/nginx-status" | awk '/^[ \t]+[0-9]+[ \t]+[0-9]+[ \t]+[0-9]+/ {print $3}'

4、TCP相关

  1. vim /usr/local/zabbix/share/zabbix/alertscripts/tcp_connection.sh
  2. #!/bin/bash
  3. function ESTAB {
  4. /usr/sbin/ss -ant |awk '{++s[$1]} END {for(k in s) print k,s[k]}' | grep 'ESTAB' | awk '{print $2}'
  5. }
  6. function TIMEWAIT {
  7. /usr/sbin/ss -ant | awk '{++s[$1]} END {for(k in s) print k,s[k]}' | grep 'TIME-WAIT' | awk '{print $2}'
  8. }
  9. function LISTEN {
  10. /usr/sbin/ss -ant | awk '{++s[$1]} END {for(k in s) print k,s[k]}' | grep 'LISTEN' | awk '{print $2}'
  11. }
  12. $1
  13. vim /usr/local/zabbix/etc/zabbix_agentd.conf.d/cattcp.conf
  14. UserParameter=tcp[*],/usr/local/zabbix/share/zabbix/alertscripts/tcp_connection.sh $1
  15. tcp[TIMEWAIT] --检测TCP的驻留数,返回整数
  16. tcp[ESTAB] --检测tcp的连接数、返回整数
  17. tcp[LISTEN] --检测TCP的监听数,返回整数

5、系统常用自带监控项

  1. agent.ping 检测客户端可达性、返回nothing表示不可达。1表示可达
  2. system.cpu.load --检测cpu负载。返回浮点数
  3. system.cpu.util -- 检测cpu使用率。返回浮点数
  4. vfs.dev.read -- 检测硬盘读取数据,返回是sps.ops.bps浮点类型,需要定义1024倍
  5. vfs.dev.write -- 检测硬盘写入数据。返回是sps.ops.bps浮点类型,需要定义1024倍
  6. net.if.out[br0] --检测网卡流速、流出方向,时间间隔为60S
  7. net-if-in[br0] --检测网卡流速,流入方向(单位:字节) 时间间隔60S
  8. proc.num[] 目前系统中的进程总数,时间间隔60s
  9. proc.num[,,run] 目前正在运行的进程总数,时间间隔60S
  10. ###处理器信息
  11. 通过zabbix_get 获取负载值
  12. 合理的控制用户态、系统态、IO等待时间剋保证进程高效率的运行
  13. 系统态运行时间较高说明进程进行系统调用的次数比较多,一般的程序如果系统态运行时间占用过高就需要优化程序,减少系统调用
  14. io等待时间过高则表明硬盘的io性能差,如果是读写文件比较频繁、读写效率要求比较高,可以考虑更换硬盘,或者使用多磁盘做raid的方案
  15. system.cpu.swtiches --cpu的进程上下文切换,单位sps,表示每秒采样次数,api中参数history需指定为3
  16. system.cpu.intr --cpu中断数量、api中参数history需指定为3
  17. system.cpu.load[percpu,avg1] --cpu每分钟的负载值,按照核数做平均值(Processor load (1 min average per core)),api中参数history需指定为0
  18. system.cpu.load[percpu,avg5] --cpu每5分钟的负载值,按照核数做平均值(Processor load (5 min average per core)),api中参数history需指定为0
  19. system.cpu.load[percpu,avg15] --cpu每5分钟的负载值,按照核数做平均值(Processor load (15 min average per core)),api中参数history需指定为0

6、系统常用自定义监控项

  1. ####内存相关
  2. vim /usr/local/zabbix/etc/zabbix_agentd.conf.d/catcarm.conf
  3. UserParameter=ram.info[*],/bin/cat /proc/meminfo |awk '/^$1:{print $2}'
  4. ram.info[Cached] --检测内存的缓存使用量、返回整数,需要定义1024倍
  5. ram.info[MemFree] --检测内存的空余量,返回整数,需要定义1024倍
  6. ram.info[Buffers] --检测内存的使用量,返回整数,需要定义1024倍
  7. ####TCP相关的自定义项
  8. vim /usr/local/zabbix/share/zabbix/alertscripts/tcp_connection.sh
  9. #!/bin/bash
  10. function ESTAB {
  11. /usr/sbin/ss -ant |awk '{++s[$1]} END {for(k in s) print k,s[k]}' | grep 'ESTAB' | awk '{print $2}'
  12. }
  13. function TIMEWAIT {
  14. /usr/sbin/ss -ant | awk '{++s[$1]} END {for(k in s) print k,s[k]}' | grep 'TIME-WAIT' | awk '{print $2}'
  15. }
  16. function LISTEN {
  17. /usr/sbin/ss -ant | awk '{++s[$1]} END {for(k in s) print k,s[k]}' | grep 'LISTEN' | awk '{print $2}'
  18. }
  19. $1
  20. vim /usr/local/zabbix/etc/zabbix_agentd.conf.d/cattcp.conf
  21. UserParameter=tcp[*],/usr/local/zabbix/share/zabbix/alertscripts/tcp_connection.sh $1
  22. tcp[TIMEWAIT] --检测TCP的驻留数,返回整数
  23. tcp[ESTAB] --检测tcp的连接数、返回整数
  24. tcp[LISTEN] --检测TCP的监听数,返回整数

九、zabbix优化

1、数据库

引擎

对于数据库而言,Zabbix 属于写多读少的操作,应该使用 Innodb 数据库引擎或者性能更好的 Tokudb,不应该使用 MyISAM

  • MyISAM 是不支持外键的,而 Zabbix创表的时候是有外键的。

  • MyISAM 只支持表级锁,就是说没插入/更新一条数据,整个表都要锁住,而 Zabbix 是写数据库比较多的,这样的话就会导致写如的速度很慢。

TokuDB一直被传说有着较高压缩比、较高insert性能、以及在线添加索引和字段速度较快等等优点,

关于 Tokudb 和 InnoDB 的性能对比参考如下博客

国外 国内

官方网站手册

数据库
  • 历史数据不要保存太长时长;

  • 尽量让数据缓存在数据库服务器的内存中;

2、优化监控项

  • 触发器的表达式

    • 减少使用聚合函数min(), max(), avg();尽量使用last(),nodata(),因为聚合函数,要运算

    • 数据收集:polling较慢(减少使用SNMP/agentless/agent);尽量使用trapping(agent(active)主动监控);

  • 数据类型:文本型数据处理速度较慢;尽量少收集类型为文本 text或string类型的数据;多使用类型为numeric 数值型数据 的;

  • 删除无用的监控项

  • 增加数据收集间隔时间

  • 减少历史数据的保留时长

3、Agent 工作模式改为主动或者使用分布式:Proxy

4、优化相关进程数

设置自动发现

制造让其快速繁忙的最有效的办法就是设置一个网段进行自动发现的扫描

保证自动发现规则是 已启用 状态

查看图,尝试在 名称 搜索框中搜索 Utilization of discoverer data collector processes

 

现在,调整 /etc/zabbix/zabbix_server.conf 文件中的自动发现进程数量

  1. # 默认值为1
  2. # StartDiscoverers=1
  3. # 修改为
  4. StartDiscoverers=10
  5. # 重启服务后查看进程数
  6. ps -ef |grep discovere[r]

缓存设置

 对应的配置文件中的选项

十、使用时遇到的问题

1、监控的服务器太多,把根占满了

因为创建数据库时没有特指数据存储的目录,导致数据存在了根下,而根的容量又不大,很快就满了

  1. # 第一步,停服务,先将 zabbix-server 和 mysqld 停掉
  2. [root@song-zabbix-server lib]# systemctl stop mysqld
  3. [root@song-zabbix-server lib]# systemctl stop zabbix-server
  4. # 第二步,迁移数据,将 mysql 的数据文件目录迁移到一个大空间的盘下
  5. [root@song-zabbix-server lib]# mv /var/lib/mysql /data/mysql-data
  6. # 第三步,做链接,将迁移后的目录链接到原地方,这样就不用更改配置文件了
  7. [root@song-zabbix-server lib]# ln -s /data/mysql-data/ /var/lib/mysql
  8. # 第四步,启动服务,然后就ok了
  9. [root@song-zabbix-server lib]# systemctl start mysqld
  10. [root@song-zabbix-server lib]# systemctl start zabbix-server

迁移zabbix使用的mysql

因华为虚拟机性能较低下,导致MySQL读写到瓶颈(表现:iowait 极高),故迁移MySQL至华为发放的MySQL中去

过程:大约80G的数据,dump时间大约1H,sql 文件 20G,导入耗时4小时

有丢失几个G 的数据,不清楚是重新启动mysql后又写入的,还是就是给丢了的,不过都是历史记录,所以问题不太大

  1. # 1.停服务
  2. # 2.dunp mysql
  3. # 3.导入 新库
  4. # 4.修改zabbix配置文件
  5. # 5.重启验证

十一、报警处理

Zabbix server: More than 75% used in the history cache

在 zabbix-server 端,修改 server 的配置文件,将 HistoryCacheSize 值调大

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小舞很执着/article/detail/881719
推荐阅读
相关标签
  

闽ICP备14008679号