赞
踩
主机名 | IP地址 | CPU/内存 | 角色 | K8S版本 | Docker版本 |
k8s231 | 192.168.99.231 | 2C4G | master | 1.23.17 | 20.10.24 |
k8s232 | 192.168.99.232 | 2C4G | woker | 1.23.17 | 20.10.24 |
k8s233(需下线) | 192.168.99.233 | 2C4G | woker | 1.23.17 | 20.10.24 |
当集群中有闲置或者node因为硬件故障机其他原因需要下线时就需要对集群进行缩容
kubectl get nodes
如图:
可以看到当前所有部署在k8s233节点上面的Pod
kubectl drain k8s233 --ignore-daemonsets --delete-emptydir-data
如图:
之前k8s233节点上的资源被驱逐到其他节点上了
如图:
ds资源并没有被驱逐
- #标记当前节点不可调度Pod,那么master组件的scheduler 就不会调度到Pod当前节点
- [root@k8s231 /app/manifests/sts]# kubectl get nodes
- 1.#打污点,不可调度且驱逐
- kubectl taint node k8s233 school=bihuang:NoExecute
-
-
- 2.#查看节点污点
- kubectl describe nodes | grep Taints -A 2
注意:
kube-proxy组件貌似无法被驱逐,因为配置无视污点的属性,所以打任何污点都无效!
-
- [root@k8s233 ~]# kubeadm reset –f
-
- [root@k8s233 ~]# rm -rf /etc/cni/net.d && iptables -F && iptables-save
-
- [root@k8s233 ~]# systemctl disable --now kubelet
[root@k8s231 /app/manifests/sts]# kubectl delete nodes k8s233
节点关机
断电
修机器
随便操作即可
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。