当前位置:   article > 正文

Ops实践 | 从零开始,在云原生环境下快速实现K8S集群可视化监控

Ops实践 | 从零开始,在云原生环境下快速实现K8S集群可视化监控

2030d24e2417e8273fd79ca948eefb6a.jpeg

2cf00baaa1ff35686e43b08bfb0e1311.gif

微信改版了,现在看到我们全凭缘分,为了不错过【全栈工程师修炼指南】重要内容及福利,大家记得按照上方步骤设置「接收文章推送」哦~

关注回复【交流群】加入【SecDevOps】学习答疑群交流群!

原文链接:Ops实践 | 从零开始,在云原生环境下快速实现K8S集群可视化监控


前言简述:

描述: 上一章作者讲解了如何监控预警Windows/Linux系统服务器的资源,相信看过小伙伴们已经掌握实践过了吧,若还没看过的小伙伴也可以去看看,一定会让您收获满满的。此小节作者将继续讲解,如何在云原生的环境中使用Prometheus 来针对内部或者外部的 kubernetes 集群以及容器Pod指标进行监控和预警,以及使用 Grafana 工具针对的采集指标数据进行可视化展示。

此处作者在内部或外部K8S集群中以 DaemonSet 控制器形式部署 node-exporter(版本:v1.7.0)导出器,从而来动态采集K8S集群node节点的服务器的各类资源数据,如cpu、内存、磁盘、网络流量等, 然后使用cadvisor来采集集群中容器监控指标(cadvisor集成在K8S的kubelet中所以无需部署), 最后自定义要抓取采集指定的Pod容器中指标, 所以说此文适用于有多K8S集群需要监控预警的朋友。说到这里,作者也请大家多多支持《#云原生落地实用指南》专栏(一杯茶颜悦色,就手把手实践企业在云原生环境下的监控预警),作者也将会持续更新此专栏,发布更多的云原生落地实践文章。

温馨提示:已付费此专栏的看友,若需要文章中的部署资源清单以及相关配置,请关注公众号回复【10014】或者直接添加作者WX。

此篇文章将实现如下架构图所示中针对内部K8S集群以及外部K8S集群监控。

6c79620f099fabe96fab4550a3833771.png

0.外部K8S集群节点监控指标抓取图

b5b21193a60cb99de802849d2fb90300.png

weiyigeek.top-外部集群抓取节点指标图

1.K8S集群节点可视化监控图

43d8cf3de5d7bd59e4c766fc39ae64a2.png

weiyigeek.top-K8S集群节点可视化监控图

2.K8S集群容器可视化监控图

efd7e4f6e852dafa893e5d62c776d01e.png

weiyigeek.top-K8S集群容器可视化监控图

3.在Grafana中使用KubeGraf插件来监控K8S集群

4c2200d3fbc2d76fc5e105037a177046.png

weiyigeek.top-使用KubeGraf插件查看节点图

0x00 前置知识

如何实现 Kubernetes 集群内监控指标的抓取?

  • Node 资源监控 :使用 node-exporter 工具来实现各K8S节点 Node 的CPU、内存利用率等监控, 其 __metrics_path__ 为:/api/v1/nodes/node名:9100/proxy/metrics

  • Pod 资源监控 :使用 kubelet 中集成的cadvisor 工具来实现容器 Pod 的CPU、内存利用率等监控,其__metrics_path__ 为:/api/v1/nodes/node名/proxy/metrics/cadvisor

  • K8S 资源监控 : 使用 kube-state-metrics 工具 来实现K8S集群中 pod、deployment、service等各资源监控,其__metrics_path__ 需要按照__scheme__://__address____metrics_path__ 基于 Prometheus 的动态发现会基于标签进行自动补全;或者使用 Metrics-Server 用于收集聚合节点和Pod的指标数据, 其 __metrics_path__ 为:/api/v1/nodes/node名:10250/proxy/metrics

知识扩展: 

在Kubernetes集群中,Metrics-Server、kube-state-metrics、cAdvisor 之间的区别

  1. Metrics-Server:

  • Metrics-Server是Kubernetes官方提供的一个轻量级指标收集器,用于收集和聚合节点和Pod的指标数据。

  • Metrics-Server通过Kubernetes的Metrics API(/apis/metrics.k8s.io)提供指标数据,包括CPU使用率、内存使用量和网络流量等。

  • Metrics-Server主要用于自动扩展和调度Pod,以确保资源的合理利用。

kube-state-metrics:

  • kube-state-metrics是一个独立于Kubernetes官方的开源项目,用于提供更详细和全面的集群状态指标数据。

  • kube-state-metrics通过监听Kubernetes API服务器的事件和对象状态来收集指标数据,包括Pod、Node、Deployment、ReplicaSet、Service等。

  • kube-state-metrics提供了更多关于集群对象的详细指标,如副本数量、重启次数、容器状态等,可以用于监控和分析集群的运行状况和性能。

cAdvisor:

  • cAdvisor(Container Advisor)是一个开源项目,由Google开发,用于收集和提供容器级别的指标数据。

  • cAdvisor通过在每个节点上运行的代理程序来监控容器的资源使用情况,包括CPU、内存、磁盘和网络等。

  • cAdvisor提供了容器级别的指标数据,可以用于监控和分析容器的性能和资源使用情况。

总结:Metrics-Server主要用于监控节点和Pod的基本指标数据,kube-state-metrics提供了更详细和全面的集群状态指标数据,而cAdvisor专注于容器级别的指标数据。在实际使用中,可以根据需求选择部署和使用这些组件,以获得全面的监控和分析能力。

温馨提示:此处的实践的云原生环境, 是在 国产化操作系统KylinOS V10服务器中部署的(国产化替代大趋势),具体搭建配置请参照此文《从零开始:新手快速在国产操作系统中搭建高可用K8S(V1.28)集群落地实践》其中已完成了 Metrics-Server 的安装,若要进行完成符合等保三级的主机安全配置,请参考此篇文章《网安等保-国产Linux操作系统银河麒麟KylinOS-V10SP3常规配置、系统优化与安全加固基线实践文档》。

温馨提示:下述操作在没有明确说是在Prometheus服务所在集群中操作的,默认就是在被要监控(抓取目标)的K8S集群中运行。


0x01 实践记录

操作流程:

Step 1.创建一个名为 monitor 的名称空间,此处不建议直接在 kube-system 空间下部署此服务,可以极大防止误操作,若没有创建此名称空间,请使用如下命令进行创建kubectl create ns monitor

Step 2.创建一个名为 prometheus 的 serviceaccount 以及 clusterRole 角色,主要用于 RBAC 权限的声明和控制,决定了使用此用户访问集群资源权限。

  1. tee prometheus-rabc-setup.yaml <<'EOF'
  2. apiVersion: v1
  3. kind: ServiceAccount
  4. metadata:
  5.   name: prometheus
  6.   namespace: monitor
  7. ---
  8. apiVersion: rbac.authorization.k8s.io/v1
  9. kind: ClusterRole
  10. metadata:
  11.   name: prometheus
  12.   namespace: monitor
  13. rules:
  14. - apiGroups: [""]
  15.   resources:
  16.   - nodes
  17.   - services
  18.   - endpoints
  19.   - pods
  20.   - nodes/proxy
  21.   - pods/proxy
  22.   verbs: ["get""list""watch"]
  23. - apiGroups: [""]
  24.   resources:
  25.   - configmaps
  26.   - nodes/metrics
  27.   verbs:
  28.   - get
  29. - apiGroups:
  30.   - "extensions"
  31.   resources:
  32.   - ingresses
  33.   verbs: ["get""list""watch"]
  34. - nonResourceURLs: ["/metrics""/metrics/cadvisor"]
  35.   verbs: ["get"]
  36. ---
  37. apiVersion: rbac.authorization.k8s.io/v1
  38. kind: ClusterRoleBinding
  39. metadata:
  40.   name: prometheus
  41. roleRef:
  42.   apiGroup: rbac.authorization.k8s.io
  43.   kind: ClusterRole
  44.   name: prometheus
  45. subjects:
  46. - kind: ServiceAccount
  47.   name: prometheus
  48.   namespace: monitor
  49. EOF
  50. # 创建 rabc 
  51. kubectl apply -f prometheus-rabc-setup.yaml

Step 3.创建部署 DaemonSet 控制器管理的 node-exporter 服务,使之运行在不同的节点之上。

  1. # 资源清单
  2. tee node-exporter-DaemonSet.yaml <<'EOF'
  3. kind: DaemonSet
  4. apiVersion: apps/v1
  5. metadata:
  6.   name: node-exporter
  7.   namespace: monitor
  8.   labels:
  9.     k8s-app: node-exporter
  10.   annotations:
  11.     prometheus.io/scrape: 'true'
  12. spec:
  13.   selector:
  14.     matchLabels:
  15.       k8s-app: node-exporter
  16.   template:
  17.     metadata:
  18.       labels:
  19.         k8s-app: node-exporter
  20.       name: node-exporter
  21.     spec:
  22.       containers:
  23.       - image: prom/node-exporter:v1.7.0
  24.         name: node-exporter
  25.         ports:
  26.         - containerPort: 9100
  27.           hostPort: 9100
  28.           name: http
  29.       hostNetwork: true
  30.       hostPID: true
  31.       tolerations:
  32.       - key: "node-role.kubernetes.io/master"
  33.         operator: "Exists"
  34.         effect: "NoSchedule"
  35. ---
  36. kind: Service
  37. apiVersion: v1
  38. metadata:
  39.   name: node-exporter
  40.   namespace: monitor
  41.   labels:
  42.     k8s-app: node-exporter
  43.   annotations:
  44.     prometheus.io/scrape: 'true'
  45.     prometheus.io/port: '9100'
  46.     prometheus.io/path: '/metrics'
  47. spec:
  48.   type: ClusterIP
  49.   clusterIP: None
  50.   ports:
  51.   - name: http
  52.     port: 9100
  53.     protocol: TCP
  54.   selector:
  55.     k8s-app: node-exporter
  56. EOF
  57. # 部署 node-exporter
  58. kubectl apply -f node-exporter-DaemonSet.yaml
  59.   # daemonset.apps/node-exporter created
  60.   # service/node-exporter created
  61. # 查看部署
  62. kubectl get svc,pod -n monitor -o wide
  63. # 验证部署
  64. curl -s 192.168.11.102:9100/metrics | head -n 10

1e1c0a60029e58d9b051ec23f4216c36.png

weiyigeek.top-在集群中部署node-exporter效果图

至此,在K8S集群中部署 node-exporter 实践完毕,下面我们分别来配置内部、外部K8S集群的节点指标采集和监控!


1.内部集群监控指标拉取

描述:此处的集群内部(本地)表示是我们 Prometheus 服务所部署在的K8S集群对象,即在此集群中安装了Prometheus等相关服务,在此合集《Ops实践 | 从零开始,搭建云原生环境下企业监控预警可视化平台》中,安装Prometheus时同样进行了Prometheus的servicesaccount、clusterrole 、ClusterRoleBinding 等资源的创建,此处不累多说,直接开始 Prometheus 抓取K8S集群节点指标、Pod 指标配置。

完整原文:Ops实践 | 从零开始,在云原生环境下快速实现K8S集群可视化监控作者在内部或外部K8S集群中以DaemonSet控制器形式部署node-exporter,来动态采集K8S集群节点的服务器的各类资源数据,在使用cadvisor拉取集群中容器监控指标, 自定义要抓取Pod容器指标,并采用进行数据可视化展示icon-default.png?t=N7T8https://mp.weixin.qq.com/s/qYUYFrL_qy0SOa4p69r2Eg

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/笔触狂放9/article/detail/618783
推荐阅读
相关标签
  

闽ICP备14008679号