当前位置:   article > 正文

Kubernetes Taints和Tolerations(污点和容忍)_tolerations kubernetes

tolerations kubernetes

一、说明:官网地址污点和容忍度 | Kubernetes

1、Taints和Tolerations

  • NodeAffinity是节点亲和性,是在Pod上定义的一种属性, 使得Pod能够被调度到某些Node上运行(优先选择或强制要求)。Taint 则是让Node拒绝Pod的运行。
  • Taint需要和Toleration配合使用,让Pod避开那些不合适的Node。在 Node上设置一个或多个Taint之后,除非Pod明确声明能够容忍这些污 点,否则无法在这些Node上运行。Toleration是Pod的属性,让Pod能够 (注意,只是能够,而非必须)运行在标注了Taint的Node上。

2、污点的模式

  1. key=value:effect
  2. effect包含了三个值:
  3. 1.NoSchedule:不会将pod调度到具有该污点的节点上
  4. 2.PreferNoSchedule:尽量避免把pod调度到具有该污点的节点上
  5. 3.NoExecute:不会将pod调度到具有该污点的节点上,同时也会将正在运行的进行pod驱逐

k8s集群中的master节点,默认存在污点所以pod默认不会调度到master节点上;

  1. [root@master ~]# kubectl get no -o yaml | grep taints -A 3
  2. taints:
  3. - effect: NoSchedule
  4. key: node-role.kubernetes.io/master
  5. status:

二、Tolerations应用:

给node1节点添加污点,这个设置为node1加上了一个Taint。该Taint的键为key,值为 value,Taint的效果是NoSchedule。这意味着除非Pod明确声明可以容忍 这个Taint,否则就不会被调度到node1上。

如果pod不能够容忍effect的值为NoExecute,那么pod将马上驱逐。

如果pod能够容忍effect的值为NoExecute,且没有定义tolerationSeconds,那么pod将会一直在该节点上运行。如果pod能够容忍effect的值为NoExecute ,但是在toleration定义中指定了tolerationSeconds,那么pod还能够在节点上的时间就是该选项设置的值

  1. kubectl taint node node1 key1=value:NoSchedule #给node1节点添加NoSchedule污点
  2. kubectl taint node node2 key2=value:NoExecute #给node1节点添加NoSchedule污点

匹配污点: 

如果pod不能够容忍effect的值为NoExecute,那么pod将马上驱逐
如果pod能够容忍effect的值为NoExecute,且没有定义tolerationSeconds,那么pod将会一直在该节点上运行
如果pod能够容忍effect的值为NoExecute ,但是在toleration定义中指定了tolerationSeconds,那么pod还能够在节点上的时间就是该选项设置的值

  1. apiVersion: apps/v1
  2. kind: Deployment
  3. metadata:
  4. name: nginx-deploy
  5. labels:
  6. app: nginx-deploy
  7. spec:
  8. replicas: 6
  9. selector:
  10. matchLabels:
  11. app: nginx
  12. template:
  13. metadata:
  14. labels:
  15. app: nginx
  16. spec:
  17. containers:
  18. - name: nginx-pod
  19. image: nginx:latest
  20. imagePullPolicy: IfNotPresent
  21. ports:
  22. - containerPort: 80
  23. tolerations: #容忍度配置
  24. - key: "key2" #匹配键名为key2的污点
  25. operator: "Equal" #相当于等于
  26. value: "value"
  27. effect: "NoExecute" #允许容忍该类型的污点
  28. tolerationSeconds: 30 #表示可以在该节点运行30
  29. ##################################################################
  30. 字段名称的概述
  31. key、value、effect和我们定义污点时写的一样
  32. operator:Equal(等于)、Exists(通配符作用)
  33. Exists的应用
  34. key值和effect都不指定的时,operator为Exists,表示容忍所有的污点(key、value、effect)
  35. tolerations:
  36. - operator: “Exists”
  37. 当不指定effect值时,表示能匹配污点key对应的所有effect情况
  38. tolerations:
  39. - key: “key
  40.   operator:  “Exists”

三、多个污点多容忍的应用

我们可以为node节点设置多个污点,也可以为pod设置多个容忍,k8s处理处理多个污点和容忍的过程就像一个过滤器,在节点定义的污点和在pod容忍里面定义的污点两者相匹配,匹配到相同的污点则过滤掉,未被过滤的就留下作为pod调度到节点的依据,通常有以下三种情况
1.当未被过滤的污点值为NoSchedule时,不会将pod分配到该节点
2.当未被过滤的污点值为PreferNoSchedule时,尽量不要调度到该节点,存在没地方调用在调用到该节点
3.当未被过滤的污点值为NoExecute时,不会将pod分配到该节点(pod还未在节点上运行),如果运行了则从该节点驱逐

  1. 为node节点添加污点(上面添加的污点保留)
  2. [root@master ~]# kubectl taint node node1 type=node1:NoExecute
  3. [root@master ~]# kubectl taint node node2 type=node2:PreferNoSchedule
  4. 查看污点
  5. [root@master ~]# kubectl describe node node1 | grep "Taints" -A 5
  6. Taints: type=node1:NoExecute
  7. key1=value:NoSchedule
  8. [root@master ~]# kubectl describe node node2 | grep "Taints" -A 5
  9. Taints: key2=value:NoExecute
  10. type=node2:PreferNoSchedule
  11. 编写一个deployment
  12. apiVersion: apps/v1
  13. kind: Deployment
  14. metadata:
  15. name: deploy-taint
  16. labels:
  17. app: deploy-taint
  18. spec:
  19. replicas: 6
  20. selector:
  21. matchLabels:
  22. app: nginx
  23. template:
  24. metadata:
  25. labels:
  26. app: nginx
  27. spec:
  28. containers:
  29. - name: nginx-pod
  30. image: nginx:latest
  31. imagePullPolicy: IfNotPresent
  32. ports:
  33. - containerPort: 80
  34. tolerations:
  35. - key: "key2" #容忍键名为key2的污点
  36. operator: "Equal"
  37. value: "value"
  38. effect: "NoExecute" #允许容忍该类型的污点
  39. - key: "type" #容忍键名为type的污点
  40. operator: "Exists" #容忍键名为type的污点,且effect为任何类型
  41. 综上所写,pod最终会被调度node2节点
  42. pod第一个污点匹配node2节点
  43. pod第二个污点同时匹配了node1和node2
  44. node1额外多出了一个污点key1=value:NoSchedule表示不会将pod调度到该节点上,所以pod不会被调度到该节点上
  45. 只有node2匹配成功,所有最终会被调度到node2节点

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/繁依Fanyi0/article/detail/563702
推荐阅读
相关标签
  

闽ICP备14008679号