当前位置:   article > 正文

3.6万字详解 K8S 高可用部署,超详细!

kubectl master cni plugin not initialized
  • 一、前言

  • 二、基础环境部署

    • 1)前期准备(所有节点)

    • 2)安装容器 docker(所有节点)

    • 3)配置 k8s yum 源(所有节点)

    • 4)将 sandbox_image 镜像源设置为阿里云 google_containers 镜像源(所有节点)

    • 5)配置 containerd cgroup 驱动程序 systemd(所有节点)

    • 6)开始安装 kubeadm,kubelet 和 kubectl(master 节点)

    • 7)使用 kubeadm 初始化集群(master 节点)

    • 8)安装 Pod 网络插件(CNI:Container Network Interface)(master)

    • 9)node 节点加入 k8s 集群

    • 10)配置 IPVS

    • 11)集群高可用配置

    • 12)部署 Nginx+Keepalived 高可用负载均衡器

  • 三、k8s 管理平台 dashboard 环境部署

    • 1)dashboard 部署

    • 2)创建登录用户

    • 3)配置 hosts 登录 dashboard web

  • 四、k8s 镜像仓库 harbor 环境部署

    • 1)安装 helm

    • 2)配置 hosts

    • 3)创建 stl 证书

    • 4)安装 ingress

    • 5)安装 nfs

    • 6)创建 nfs provisioner 和持久化存储 SC

    • 7)部署 Harbor(Https 方式)

一、前言

官网:https://kubernetes.io/
官方文档:https://kubernetes.io/zh-cn/docs/home/

二、基础环境部署

1)前期准备(所有节点)

1、修改主机名和配置 hosts

先部署 1master 和 2node 节点,后面再加一个 master 节点

  1. # 在192.168.0.113执行
  2. hostnamectl set-hostname  k8s-master-168-0-113
  3. # 在192.168.0.114执行
  4. hostnamectl set-hostname k8s-node1-168-0-114
  5. # 在192.168.0.115执行
  6. hostnamectl set-hostname k8s-node2-168-0-115

配置 hosts

  1. cat >> /etc/hosts<<EOF
  2. 192.168.0.113 k8s-master-168-0-113
  3. 192.168.0.114 k8s-node1-168-0-114
  4. 192.168.0.115 k8s-node2-168-0-115
  5. EOF
2、配置 ssh 互信
  1. # 直接一直回车就行
  2. ssh-keygen
  3. ssh-copy-id -i ~/.ssh/id_rsa.pub root@k8s-master-168-0-113
  4. ssh-copy-id -i ~/.ssh/id_rsa.pub root@k8s-node1-168-0-114
  5. ssh-copy-id -i ~/.ssh/id_rsa.pub root@k8s-node2-168-0-115
3、时间同步
  1. yum install chrony -y
  2. systemctl start chronyd
  3. systemctl enable chronyd
  4. chronyc sources
4、关闭防火墙
  1. systemctl stop firewalld
  2. systemctl disable firewalld
5、关闭 swap
  1. # 临时关闭;关闭swap主要是为了性能考虑
  2. swapoff -a
  3. # 可以通过这个命令查看swap是否关闭了
  4. free
  5. # 永久关闭
  6. sed -ri 's/.*swap.*/#&/' /etc/fstab
6、禁用 SELinux
  1. # 临时关闭
  2. setenforce 0
  3. # 永久禁用
  4. sed -i 's/^SELINUX=enforcing$/SELINUX=disabled/' /etc/selinux/config
7、允许 iptables 检查桥接流量(可选,所有节点)

若要显式加载此模块,请运行 sudo modprobe br_netfilter,通过运行 lsmod | grep br_netfilter 来验证 br_netfilter 模块是否已加载,

  1. sudo modprobe br_netfilter
  2. lsmod | grep br_netfilter

为了让 Linux 节点的 iptables 能够正确查看桥接流量,请确认 sysctl 配置中的 net.bridge.bridge-nf-call-iptables 设置为 1。例如:

  1. cat <<EOF | sudo tee /etc/modules-load.d/k8s.conf
  2. overlay
  3. br_netfilter
  4. EOF
  5. sudo modprobe overlay
  6. sudo modprobe br_netfilter
  7. # 设置所需的 sysctl 参数,参数在重新启动后保持不变
  8. cat <<EOF | sudo tee /etc/sysctl.d/k8s.conf
  9. net.bridge.bridge-nf-call-iptables  = 1
  10. net.bridge.bridge-nf-call-ip6tables = 1
  11. net.ipv4.ip_forward                 = 1
  12. EOF
  13. # 应用 sysctl 参数而不重新启动
  14. sudo sysctl --system

2)安装容器 docker(所有节点)

提示:v1.24 之前的 Kubernetes 版本包括与 Docker Engine 的直接集成,使用名为 dockershim 的组件。这种特殊的直接整合不再是 Kubernetes 的一部分 (这次删除被作为 v1.20 发行版本的一部分宣布)。你可以阅读检查 Dockershim 弃用是否会影响你 以了解此删除可能会如何影响你。要了解如何使用 dockershim 进行迁移,请参阅从 dockershim 迁移。

  1. # 配置yum源
  2. cd /etc/yum.repos.d ; mkdir bak; mv CentOS-Linux-* bak/
  3. # centos7
  4. wget -O /etc/yum.repos.d/CentOS-Base.repo http://mirrors.aliyun.com/repo/Centos-7.repo
  5. # centos8
  6. wget -O /etc/yum.repos.d/CentOS-Base.repo http://mirrors.aliyun.com/repo/Centos-8.repo
  7. # 安装yum-config-manager配置工具
  8. yum -y install yum-utils
  9. # 设置yum源
  10. yum-config-manager --add-repo http://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo
  11. # 安装docker-ce版本
  12. yum install -y docker-ce
  13. # 启动
  14. systemctl start docker
  15. # 开机自启
  16. systemctl enable docker
  17. # 查看版本号
  18. docker --version
  19. # 查看版本具体信息
  20. docker version
  21. # Docker镜像源设置
  22. # 修改文件 /etc/docker/daemon.json,没有这个文件就创建
  23. # 添加以下内容后,重启docker服务:
  24. cat >/etc/docker/daemon.json<<EOF
  25. {
  26.    "registry-mirrors": ["http://hub-mirror.c.163.com"]
  27. }
  28. EOF
  29. # 加载
  30. systemctl reload docker
  31. # 查看
  32. systemctl status docker containerd

【温馨提示】dockerd 实际真实调用的还是 containerd 的 api 接口,containerd 是 dockerd 和 runC 之间的一个中间交流组件。所以启动 docker 服务的时候,也会启动 containerd 服务的。

3)配置 k8s yum 源(所有节点)

  1. cat > /etc/yum.repos.d/kubernetes.repo << EOF
  2. [k8s]
  3. name=k8s
  4. enabled=1
  5. gpgcheck=0
  6. baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64/
  7. EOF

4)将 sandbox_image 镜像源设置为阿里云 google_containers 镜像源(所有节点)

  1. # 导出默认配置,config.toml这个文件默认是不存在的
  2. containerd config default > /etc/containerd/config.toml
  3. grep sandbox_image  /etc/containerd/config.toml
  4. sed -i "s#k8s.gcr.io/pause#registry.aliyuncs.com/google_containers/pause#g"       /etc/containerd/config.toml
  5. grep sandbox_image  /etc/containerd/config.toml
02645c72f921864e49f81df8831a5805.png

5)配置 containerd cgroup 驱动程序 systemd(所有节点)

kubernets 自v 1.24.0 后,就不再使用 docker.shim,替换采用 containerd 作为容器运行时端点。因此需要安装 containerd(在 docker 的基础下安装),上面安装 docker 的时候就自动安装了 containerd 了。这里的 docker 只是作为客户端而已。容器引擎还是 containerd。

  1. sed -i 's#SystemdCgroup = false#SystemdCgroup = true#g' /etc/containerd/config.toml
  2. # 应用所有更改后,重新启动containerd
  3. systemctl restart containerd

6)开始安装 kubeadm,kubelet 和 kubectl(master 节点)

  1. # 不指定版本就是最新版本,当前最新版就是1.24.1
  2. yum install -y kubelet-1.24.1  kubeadm-1.24.1  kubectl-1.24.1 --disableexcludes=kubernetes
  3. # disableexcludes=kubernetes:禁掉除了这个kubernetes之外的别的仓库
  4. # 设置为开机自启并现在立刻启动服务 --now:立刻启动服务
  5. systemctl enable --now kubelet
  6. # 查看状态,这里需要等待一段时间再查看服务状态,启动会有点慢
  7. systemctl status kubelet
cb8dc520b2249eef493512396093342a.png

查看日志,发现有报错,报错如下:

kubelet.service: Main process exited, code=exited, status=1/FAILURE kubelet.service: Failed with result 'exit-code'.

359a902412da6dd161d192c493ef096e.png

【解释】重新安装(或第一次安装)k8s,未经过 kubeadm init 或者 kubeadm join 后,kubelet 会不断重启,这个是正常现象……,执行 init 或 join 后问题会自动解决,对此官网有如下描述,也就是此时不用理会 kubelet.service。

查看版本

  1. kubectl version
  2. yum info kubeadm
411d56366dd402a122452fe5ff5c619f.png

7)使用 kubeadm 初始化集群(master 节点)

最好提前把镜像下载好,这样安装快

  1. docker pull registry.aliyuncs.com/google_containers/kube-apiserver:v1.24.1
  2. docker pull registry.aliyuncs.com/google_containers/kube-controller-manager:v1.24.1
  3. docker pull registry.aliyuncs.com/google_containers/kube-scheduler:v1.24.1
  4. docker pull registry.aliyuncs.com/google_containers/kube-proxy:v1.24.1
  5. docker pull registry.aliyuncs.com/google_containers/pause:3.7
  6. docker pull registry.aliyuncs.com/google_containers/etcd:3.5.3-0
  7. docker pull registry.aliyuncs.com/google_containers/coredns:v1.8.6

集群初始化

  1. kubeadm init \
  2.   --apiserver-advertise-address=192.168.0.113 \
  3.   --image-repository registry.aliyuncs.com/google_containers \
  4.   --control-plane-endpoint=cluster-endpoint \
  5.   --kubernetes-version v1.24.1 \
  6.   --service-cidr=10.1.0.0/16 \
  7.   --pod-network-cidr=10.244.0.0/16 \
  8.   --v=5
  9. # –image-repository string:    这个用于指定从什么位置来拉取镜像(1.13版本才有的),默认值是k8s.gcr.io,我们将其指定为国内镜像地址:registry.aliyuncs.com/google_containers
  10. # –kubernetes-version string:  指定kubenets版本号,默认值是stable-1,会导致从https://dl.k8s.io/release/stable-1.txt下载最新的版本号,我们可以将其指定为固定版本(v1.22.1)来跳过网络请求。
  11. # –apiserver-advertise-address  指明用 Master 的哪个 interface 与 Cluster 的其他节点通信。如果 Master 有多个 interface,建议明确指定,如果不指定,kubeadm 会自动选择有默认网关的 interface。这里的ip为master节点ip,记得更换。
  12. # –pod-network-cidr             指定 Pod 网络的范围。Kubernetes 支持多种网络方案,而且不同网络方案对  –pod-network-cidr有自己的要求,这里设置为10.244.0.0/16 是因为我们将使用 flannel 网络方案,必须设置成这个 CIDR。
  13. # --control-plane-endpoint     cluster-endpoint 是映射到该 IP 的自定义 DNS 名称,这里配置hosts映射:192.168.0.113   cluster-endpoint。 这将允许你将 --control-plane-endpoint=cluster-endpoint 传递给 kubeadm init,并将相同的 DNS 名称传递给 kubeadm join。 稍后你可以修改 cluster-endpoint 以指向高可用性方案中的负载均衡器的地址。

【温馨提示】kubeadm 不支持将没有 --control-plane-endpoint 参数的单个控制平面集群转换为高可用性集群。

重置再初始化

  1. kubeadm reset
  2. rm -fr ~/.kube/  /etc/kubernetes/* var/lib/etcd/*
  3. kubeadm init \
  4.   --apiserver-advertise-address=192.168.0.113  \
  5.   --image-repository registry.aliyuncs.com/google_containers \
  6.   --control-plane-endpoint=cluster-endpoint \
  7.   --kubernetes-version v1.24.1 \
  8.   --service-cidr=10.1.0.0/16 \
  9.   --pod-network-cidr=10.244.0.0/16 \
  10.   --v=5
  11. # –image-repository string:    这个用于指定从什么位置来拉取镜像(1.13版本才有的),默认值是k8s.gcr.io,我们将其指定为国内镜像地址:registry.aliyuncs.com/google_containers
  12. # –kubernetes-version string:  指定kubenets版本号,默认值是stable-1,会导致从https://dl.k8s.io/release/stable-1.txt下载最新的版本号,我们可以将其指定为固定版本(v1.22.1)来跳过网络请求。
  13. # –apiserver-advertise-address  指明用 Master 的哪个 interface 与 Cluster 的其他节点通信。如果 Master 有多个 interface,建议明确指定,如果不指定,kubeadm 会自动选择有默认网关的 interface。这里的ip为master节点ip,记得更换。
  14. # –pod-network-cidr             指定 Pod 网络的范围。Kubernetes 支持多种网络方案,而且不同网络方案对  –pod-network-cidr有自己的要求,这里设置为10.244.0.0/16 是因为我们将使用 flannel 网络方案,必须设置成这个 CIDR。
  15. # --control-plane-endpoint     cluster-endpoint 是映射到该 IP 的自定义 DNS 名称,这里配置hosts映射:192.168.0.113   cluster-endpoint。 这将允许你将 --control-plane-endpoint=cluster-endpoint 传递给 kubeadm init,并将相同的 DNS 名称传递给 kubeadm join。 稍后你可以修改 cluster-endpoint 以指向高可用性方案中的负载均衡器的地址。

配置环境变量

  1. mkdir -p $HOME/.kube
  2. sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
  3. sudo chown $(id -u):$(id -g) $HOME/.kube/config
  4. # 临时生效(退出当前窗口重连环境变量失效)
  5. export KUBECONFIG=/etc/kubernetes/admin.conf
  6. # 永久生效(推荐)
  7. echo "export KUBECONFIG=/etc/kubernetes/admin.conf" >> ~/.bash_profile
  8. source  ~/.bash_profile

a303a567719e9088f9664aafc1659a6d.png

发现节点还是有问题,查看日志 /var/log/messages

"Container runtime network not ready" networkReady="NetworkReady=false reason:NetworkPluginNotReady message:Network plugin returns error: cni plugin not initialized"

c7b9328402e3e8c733eba0245e1b8005.png
接下来就是安装 Pod 网络插件

8)安装 Pod 网络插件(CNI:Container Network Interface)(master)

你必须部署一个基于 Pod 网络插件的 容器网络接口 (CNI),以便你的 Pod 可以相互通信。

  1. # 最好提前下载镜像(所有节点)
  2. docker pull quay.io/coreos/flannel:v0.14.0
  3. kubectl apply -f https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml

如果上面安装失败,则下载我百度里的,离线安装

链接:https://pan.baidu.com/s/1HB9xuO3bssAW7v5HzpXkeQ
提取码:8888

再查看 node 节点,就已经正常了
2728208d1e75ecf9d3919ddf929e69c0.png

9)node 节点加入 k8s 集群

先安装 kubelet

  1. yum install -y kubelet kubeadm kubectl --disableexcludes=kubernetes
  2. # 设置为开机自启并现在立刻启动服务 --now:立刻启动服务
  3. systemctl enable --now kubelet
  4. systemctl status kubelet

如果没有令牌,可以通过在控制平面节点上运行以下命令来获取令牌:

kubeadm token list

默认情况下,令牌会在24小时后过期。如果要在当前令牌过期后将节点加入集群, 则可以通过在控制平面节点上运行以下命令来创建新令牌:

  1. kubeadm token create
  2. # 再查看
  3. kubeadm token list

如果你没有 –discovery-token-ca-cert-hash 的值,则可以通过在控制平面节点上执行以下命令链来获取它:

openssl x509 -pubkey -in /etc/kubernetes/pki/ca.crt | openssl rsa -pubin -outform der 2>/dev/null | openssl dgst -sha256 -hex | sed 's/^.* //'

如果执行 kubeadm init 时没有记录下加入集群的命令,可以通过以下命令重新创建(推荐)一般不用上面的分别获取 token 和 ca-cert-hash 方式,执行以下命令一气呵成:

kubeadm token create --print-join-command

这里需要等待一段时间,再查看节点节点状态,因为需要安装 kube-proxy 和 flannel。

  1. kubectl get pods -A
  2. kubectl get nodes
029b8afcc9c30dafc5bfe3bf0ad13cec.png

10)配置 IPVS

【问题】集群内无法 ping 通 ClusterIP(或 ServiceName)

1、加载 ip_vs 相关内核模块
  1. modprobe -- ip_vs
  2. modprobe -- ip_vs_sh
  3. modprobe -- ip_vs_rr
  4. modprobe -- ip_vs_wrr

所有节点验证开启了 ipvs:

lsmod |grep ip_vs
2、安装 ipvsadm 工具
yum install ipset ipvsadm -y
3、编辑 kube-proxy 配置文件,mode 修改成 ipvs
kubectl edit  configmap -n kube-system  kube-proxy
f6445ffd57e5dc4991832e9754839ee0.png
4、重启 kube-proxy
  1. # 先查看
  2. kubectl get pod -n kube-system | grep kube-proxy
  3. # 再delete让它自拉起
  4. kubectl get pod -n kube-system | grep kube-proxy |awk '{system("kubectl delete pod "$1" -n kube-system")}'
  5. # 再查看
  6. kubectl get pod -n kube-system | grep kube-proxy
cd4109f4ceb30be00653280b97b27d23.png
5、查看 ipvs 转发规则
ipvsadm -Ln
0ceb63023136e83b5490352ef9a70e7e.png

11)集群高可用配置

配置高可用(HA)Kubernetes 集群实现的两种方案:

  • 使用堆叠(stacked)控制平面节点,其中 etcd 节点与控制平面节点共存(本章使用),架构图如下:

f7dc3d4b9f715b1cad96d51a27c00637.png
  • 使用外部 etcd 节点,其中 etcd 在与控制平面不同的节点上运行,架构图如下:

d853349053d52047ec6d1f3ccb0f6a58.png

这里新增一台机器作为另外一个 master 节点:192.168.0.116 配置跟上面 master 节点一样。只是不需要最后一步初始化了。

1、修改主机名和配置 hosts

所有节点都统一如下配置:

  1. # 在192.168.0.113执行
  2. hostnamectl set-hostname  k8s-master-168-0-113
  3. # 在192.168.0.114执行
  4. hostnamectl set-hostname k8s-node1-168-0-114
  5. # 在192.168.0.115执行
  6. hostnamectl set-hostname k8s-node2-168-0-115
  7. # 在192.168.0.116执行
  8. hostnamectl set-hostname k8s-master2-168-0-116

配置 hosts

  1. cat >> /etc/hosts<<EOF
  2. 192.168.0.113 k8s-master-168-0-113 cluster-endpoint
  3. 192.168.0.114 k8s-node1-168-0-114
  4. 192.168.0.115 k8s-node2-168-0-115
  5. 192.168.0.116 k8s-master2-168-0-116
  6. EOF
2、配置 ssh 互信
  1. # 直接一直回车就行
  2. ssh-keygen
  3. ssh-copy-id -i ~/.ssh/id_rsa.pub root@k8s-master-168-0-113
  4. ssh-copy-id -i ~/.ssh/id_rsa.pub root@k8s-node1-168-0-114
  5. ssh-copy-id -i ~/.ssh/id_rsa.pub root@k8s-node2-168-0-115
  6. ssh-copy-id -i ~/.ssh/id_rsa.pub root@k8s-master2-168-0-116
3、时间同步
  1. yum install chrony -y
  2. systemctl start chronyd
  3. systemctl enable chronyd
  4. chronyc sources
7、关闭防火墙
  1. systemctl stop firewalld
  2. systemctl disable firewalld
4、关闭 swap
  1. # 临时关闭;关闭swap主要是为了性能考虑
  2. swapoff -a
  3. # 可以通过这个命令查看swap是否关闭了
  4. free
  5. # 永久关闭
  6. sed -ri 's/.*swap.*/#&/' /etc/fstab
5、禁用 SELinux
  1. # 临时关闭
  2. setenforce 0
  3. # 永久禁用
  4. sed -i 's/^SELINUX=enforcing$/SELINUX=disabled/' /etc/selinux/config
6、允许 iptables 检查桥接流量(可选,所有节点)

若要显式加载此模块,请运行 sudo modprobe br_netfilter,通过运行 lsmod | grep br_netfilter 来验证 br_netfilter 模块是否已加载,

  1. sudo modprobe br_netfilter
  2. lsmod | grep br_netfilter

为了让 Linux 节点的 iptables 能够正确查看桥接流量,请确认 sysctl 配置中的 net.bridge.bridge-nf-call-iptables 设置为 1。例如:

  1. cat <<EOF | sudo tee /etc/modules-load.d/k8s.conf
  2. overlay
  3. br_netfilter
  4. EOF
  5. sudo modprobe overlay
  6. sudo modprobe br_netfilter
  7. # 设置所需的 sysctl 参数,参数在重新启动后保持不变
  8. cat <<EOF | sudo tee /etc/sysctl.d/k8s.conf
  9. net.bridge.bridge-nf-call-iptables  = 1
  10. net.bridge.bridge-nf-call-ip6tables = 1
  11. net.ipv4.ip_forward                 = 1
  12. EOF
  13. # 应用 sysctl 参数而不重新启动
  14. sudo sysctl --system
7、安装容器 docker(所有节点)

提示:v1.24 之前的 Kubernetes 版本包括与 Docker Engine 的直接集成,使用名为 dockershim 的组件。这种特殊的直接整合不再是 Kubernetes 的一部分 (这次删除被作为 v1.20 发行版本的一部分宣布)。你可以阅读检查 Dockershim 弃用是否会影响你 以了解此删除可能会如何影响你。要了解如何使用 dockershim 进行迁移,请参阅从 dockershim 迁移。

  1. # 配置yum源
  2. cd /etc/yum.repos.d ; mkdir bak; mv CentOS-Linux-* bak/
  3. # centos7
  4. wget -O /etc/yum.repos.d/CentOS-Base.repo http://mirrors.aliyun.com/repo/Centos-7.repo
  5. # centos8
  6. wget -O /etc/yum.repos.d/CentOS-Base.repo http://mirrors.aliyun.com/repo/Centos-8.repo
  7. # 安装yum-config-manager配置工具
  8. yum -y install yum-utils
  9. # 设置yum源
  10. yum-config-manager --add-repo http://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo
  11. # 安装docker-ce版本
  12. yum install -y docker-ce
  13. # 启动
  14. systemctl start docker
  15. # 开机自启
  16. systemctl enable docker
  17. # 查看版本号
  18. docker --version
  19. # 查看版本具体信息
  20. docker version
  21. # Docker镜像源设置
  22. # 修改文件 /etc/docker/daemon.json,没有这个文件就创建
  23. # 添加以下内容后,重启docker服务:
  24. cat >/etc/docker/daemon.json<<EOF
  25. {
  26.    "registry-mirrors": ["http://hub-mirror.c.163.com"]
  27. }
  28. EOF
  29. # 加载
  30. systemctl reload docker
  31. # 查看
  32. systemctl status docker containerd

【温馨提示】dockerd 实际真实调用的还是 containerd 的 api 接口,containerd 是 dockerd 和 runC 之间的一个中间交流组件。所以启动 docker 服务的时候,也会启动 containerd 服务的。

8、配置 k8s yum 源(所有节点)
  1. cat > /etc/yum.repos.d/kubernetes.repo << EOF
  2. [k8s]
  3. name=k8s
  4. enabled=1
  5. gpgcheck=0
  6. baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64/
  7. EOF
9、将 sandbox_image 镜像源设置为阿里云 google_containers 镜像源(所有节点)
  1. # 导出默认配置,config.toml这个文件默认是不存在的
  2. containerd config default > /etc/containerd/config.toml
  3. grep sandbox_image  /etc/containerd/config.toml
  4. sed -i "s#k8s.gcr.io/pause#registry.aliyuncs.com/google_containers/pause#g"       /etc/containerd/config.toml
  5. grep sandbox_image  /etc/containerd/config.toml
b09a62d14186ebe2ac534d98860849ae.png
10、配置 containerd cgroup 驱动程序 systemd

kubernets 自v 1.24.0 后,就不再使用 docker.shim,替换采用 containerd 作为容器运行时端点。因此需要安装 containerd(在 docker 的基础下安装),上面安装 docker 的时候就自动安装了 containerd 了。这里的 docker 只是作为客户端而已。容器引擎还是 containerd。

  1. sed -i 's#SystemdCgroup = false#SystemdCgroup = true#g' /etc/containerd/config.toml
  2. # 应用所有更改后,重新启动containerd
  3. systemctl restart containerd
11、开始安装 kubeadm,kubelet 和 kubectl(master 节点)
  1. # 不指定版本就是最新版本,当前最新版就是1.24.1
  2. yum install -y kubelet-1.24.1  kubeadm-1.24.1  kubectl-1.24.1 --disableexcludes=kubernetes
  3. # disableexcludes=kubernetes:禁掉除了这个kubernetes之外的别的仓库
  4. # 设置为开机自启并现在立刻启动服务 --now:立刻启动服务
  5. systemctl enable --now kubelet
  6. # 查看状态,这里需要等待一段时间再查看服务状态,启动会有点慢
  7. systemctl status kubelet
  8. # 查看版本
  9. kubectl version
  10. yum info kubeadm
12、加入 k8s 集群
  1. # 证如果过期了,可以使用下面命令生成新证书上传,这里会打印出certificate key,后面会用到
  2. kubeadm init phase upload-certs --upload-certs
  3. # 你还可以在 【init】期间指定自定义的 --certificate-key,以后可以由 join 使用。 要生成这样的密钥,可以使用以下命令(这里不执行,就用上面那个自命令就可以了):
  4. kubeadm certs certificate-key
  5. kubeadm token create --print-join-command
  6. kubeadm join cluster-endpoint:6443 --token wswrfw.fc81au4yvy6ovmhh --discovery-token-ca-cert-hash sha256:43a3924c25104d4393462105639f6a02b8ce284728775ef9f9c30eed8e0abc0f --control-plane --certificate-key 8d2709697403b74e35d05a420bd2c19fd8c11914eb45f2ff22937b245bed5b68
  7. # --control-plane 标志通知 kubeadm join 创建一个新的控制平面。加入master必须加这个标记
  8. # --certificate-key ... 将导致从集群中的 kubeadm-certs Secret 下载控制平面证书并使用给定的密钥进行解密。这里的值就是上面这个命令(kubeadm init phase upload-certs --upload-certs)打印出的key。

058076c4172b65daeb2dcc1c7dbfe105.png
根据提示执行如下命令:

  1. mkdir -p $HOME/.kube
  2. sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
  3. sudo chown $(id -u):$(id -g) $HOME/.kube/config

查看

  1. kubectl get nodes
  2. kubectl get pods -A -owide

1787fc7375386b3d14d33e61653a3d76.png
虽然现在已经有两个 master 了,但是对外还是只能有一个入口的,所以还得要一个负载均衡器,如果一个 master 挂了,会自动切到另外一个 master 节点。

12)部署 Nginx+Keepalived 高可用负载均衡器

d883c463c2adda797d28f145c2511fde.png
1、安装 Nginx 和 Keepalived
  1. # 在两个master节点上执行
  2. yum install nginx keepalived -y
2、Nginx 配置

在两个 master 节点配置

  1. cat > /etc/nginx/nginx.conf << "EOF"
  2. user nginx;
  3. worker_processes auto;
  4. error_log /var/log/nginx/error.log;
  5. pid /run/nginx.pid;
  6. include /usr/share/nginx/modules/*.conf;
  7. events {
  8.     worker_connections 1024;
  9. }
  10. # 四层负载均衡,为两台Master apiserver组件提供负载均衡
  11. stream {
  12.     log_format  main  '$remote_addr $upstream_addr - [$time_local] $status $upstream_bytes_sent';
  13.     access_log  /var/log/nginx/k8s-access.log  main;
  14.     upstream k8s-apiserver {
  15.     # Master APISERVER IP:PORT
  16.        server 192.168.0.113:6443;
  17.     # Master2 APISERVER IP:PORT
  18.        server 192.168.0.116:6443;
  19.     }
  20.     server {
  21.        listen 16443;
  22.        proxy_pass k8s-apiserver;
  23.     }
  24. }
  25. http {
  26.     log_format  main  '$remote_addr - $remote_user [$time_local] "$request" '
  27.                       '$status $body_bytes_sent "$http_referer" '
  28.                       '"$http_user_agent" "$http_x_forwarded_for"';
  29.     access_log  /var/log/nginx/access.log  main;
  30.     sendfile            on;
  31.     tcp_nopush          on;
  32.     tcp_nodelay         on;
  33.     keepalive_timeout   65;
  34.     types_hash_max_size 2048;
  35.     include             /etc/nginx/mime.types;
  36.     default_type        application/octet-stream;
  37.     server {
  38.         listen       80 default_server;
  39.         server_name  _;
  40.         location / {
  41.         }
  42.     }
  43. }
  44. EOF

【温馨提示】如果只保证高可用,不配置 k8s-apiserver 负载均衡的话,可以不装 nginx,但是最好还是配置一下 k8s-apiserver 负载均衡。

3、Keepalived 配置(master)
  1. cat > /etc/keepalived/keepalived.conf << EOF
  2. global_defs {
  3.    notification_email {
  4.      acassen@firewall.loc
  5.      failover@firewall.loc
  6.      sysadmin@firewall.loc
  7.    }
  8.    notification_email_from fage@qq.com
  9.    smtp_server 127.0.0.1
  10.    smtp_connect_timeout 30
  11.    router_id NGINX_MASTER
  12. }
  13. vrrp_script check_nginx {
  14.     script "/etc/keepalived/check_nginx.sh"
  15. }
  16. vrrp_instance VI_1 {
  17.     state MASTER
  18.     interface ens33
  19.     virtual_router_id 51 # VRRP 路由 ID实例,每个实例是唯一的
  20.     priority 100    # 优先级,备服务器设置 90
  21.     advert_int 1    # 指定VRRP 心跳包通告间隔时间,默认1
  22.     authentication {
  23.         auth_type PASS
  24.         auth_pass 1111
  25.     }
  26.     # 虚拟IP
  27.     virtual_ipaddress {
  28.         192.168.0.120/24
  29.     }
  30.     track_script {
  31.         check_nginx
  32.     }
  33. }
  34. EOF
  • vrrp_script:指定检查 nginx 工作状态脚本(根据 nginx 状态判断是否故障转移)

  • virtual_ipaddress:虚拟 IP(VIP)

检查 nginx 状态脚本:

  1. cat > /etc/keepalived/check_nginx.sh  << "EOF"
  2. #!/bin/bash
  3. count=$(ps -ef |grep nginx |egrep -cv "grep|$$")
  4. if [ "$count" -eq 0 ];then
  5.     exit 1
  6. else
  7.     exit 0
  8. fi
  9. EOF
  10. chmod +x /etc/keepalived/check_nginx.sh
4、Keepalived 配置(backup)
  1. cat > /etc/keepalived/keepalived.conf << EOF
  2. global_defs {
  3.    notification_email {
  4.      acassen@firewall.loc
  5.      failover@firewall.loc
  6.      sysadmin@firewall.loc
  7.    }
  8.    notification_email_from fage@qq.com
  9.    smtp_server 127.0.0.1
  10.    smtp_connect_timeout 30
  11.    router_id NGINX_BACKUP
  12. }
  13. vrrp_script check_nginx {
  14.     script "/etc/keepalived/check_nginx.sh"
  15. }
  16. vrrp_instance VI_1 {
  17.     state BACKUP
  18.     interface ens33
  19.     virtual_router_id 51 # VRRP 路由 ID实例,每个实例是唯一的
  20.     priority 90
  21.     advert_int 1
  22.     authentication {
  23.         auth_type PASS
  24.         auth_pass 1111
  25.     }
  26.     virtual_ipaddress {
  27.         192.168.0.120/24
  28.     }
  29.     track_script {
  30.         check_nginx
  31.     }
  32. }
  33. EOF

检查 nginx 状态脚本:

  1. cat > /etc/keepalived/check_nginx.sh  << "EOF"
  2. #!/bin/bash
  3. count=$(ps -ef |grep nginx |egrep -cv "grep|$$")
  4. if [ "$count" -eq 0 ];then
  5.     exit 1
  6. else
  7.     exit 0
  8. fi
  9. EOF
  10. chmod +x /etc/keepalived/check_nginx.sh
5、启动并设置开机启动
  1. systemctl daemon-reload
  2. systemctl restart nginx && systemctl enable nginx && systemctl status nginx
  3. systemctl restart keepalived && systemctl enable keepalived && systemctl status keepalived

查看 VIP

ip a
2dd1c94b671004c24a64f80a8a2f2ac1.png
6、修改 hosts(所有节点)

将 cluster-endpoint 之前执行的 ip 修改执行现在的 VIP

  1. 192.168.0.113 k8s-master-168-0-113
  2. 192.168.0.114 k8s-node1-168-0-114
  3. 192.168.0.115 k8s-node2-168-0-115
  4. 192.168.0.116 k8s-master2-168-0-116
  5. 192.168.0.120 cluster-endpoint
7、测试验证

查看版本(负载均衡测试验证)

curl -k https://cluster-endpoint:16443/version

a975634b84ffa858cec553164d00c32b.png
高可用测试验证,将 k8s-master-168-0-113 节点关机

  1. shutdown -h now
  2. curl -k https://cluster-endpoint:16443/version
  3. kubectl get nodes -A
  4. kubectl get pods -A

【温馨提示】堆叠集群存在耦合失败的风险。如果一个节点发生故障,则 etcd 成员和控制平面实例都将丢失, 并且冗余会受到影响。你可以通过添加更多控制平面节点来降低此风险。

三、k8s 管理平台 dashboard 环境部署

1)dashboard 部署

GitHub 地址:https://github.com/kubernetes/dashboard

  1. kubectl apply -f https://raw.githubusercontent.com/kubernetes/dashboard/v2.6.0/aio/deploy/recommended.yaml
  2. kubectl get pods -n kubernetes-dashboard

但是这个只能内部访问,所以要外部访问,要么部署 ingress,要么就是设置 service NodePort 类型。这里选择 service 暴露端口。

wget https://raw.githubusercontent.com/kubernetes/dashboard/v2.6.0/aio/deploy/recommended.yaml

修改后的内容如下:

  1. # Copyright 2017 The Kubernetes Authors.
  2. #
  3. # Licensed under the Apache License, Version 2.0 (the "License");
  4. # you may not use this file except in compliance with the License.
  5. # You may obtain a copy of the License at
  6. #
  7. #     http://www.apache.org/licenses/LICENSE-2.0
  8. #
  9. # Unless required by applicable law or agreed to in writing, software
  10. # distributed under the License is distributed on an "AS IS" BASIS,
  11. # WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
  12. # See the License for the specific language governing permissions and
  13. # limitations under the License.
  14. apiVersion: v1
  15. kind: Namespace
  16. metadata:
  17.   name: kubernetes-dashboard
  18. ---
  19. apiVersion: v1
  20. kind: ServiceAccount
  21. metadata:
  22.   labels:
  23.     k8s-app: kubernetes-dashboard
  24.   name: kubernetes-dashboard
  25.   namespace: kubernetes-dashboard
  26. ---
  27. kind: Service
  28. apiVersion: v1
  29. metadata:
  30.   labels:
  31.     k8s-app: kubernetes-dashboard
  32.   name: kubernetes-dashboard
  33.   namespace: kubernetes-dashboard
  34. spec:
  35.   type: NodePort
  36.   ports:
  37.     - port: 443
  38.       targetPort: 8443
  39.       nodePort: 31443
  40.   selector:
  41.     k8s-app: kubernetes-dashboard
  42. ---
  43. apiVersion: v1
  44. kind: Secret
  45. metadata:
  46.   labels:
  47.     k8s-app: kubernetes-dashboard
  48.   name: kubernetes-dashboard-certs
  49.   namespace: kubernetes-dashboard
  50. type: Opaque
  51. ---
  52. apiVersion: v1
  53. kind: Secret
  54. metadata:
  55.   labels:
  56.     k8s-app: kubernetes-dashboard
  57.   name: kubernetes-dashboard-csrf
  58.   namespace: kubernetes-dashboard
  59. type: Opaque
  60. data:
  61.   csrf: ""
  62. ---
  63. apiVersion: v1
  64. kind: Secret
  65. metadata:
  66.   labels:
  67.     k8s-app: kubernetes-dashboard
  68.   name: kubernetes-dashboard-key-holder
  69.   namespace: kubernetes-dashboard
  70. type: Opaque
  71. ---
  72. kind: ConfigMap
  73. apiVersion: v1
  74. metadata:
  75.   labels:
  76.     k8s-app: kubernetes-dashboard
  77.   name: kubernetes-dashboard-settings
  78.   namespace: kubernetes-dashboard
  79. ---
  80. kind: Role
  81. apiVersion: rbac.authorization.k8s.io/v1
  82. metadata:
  83.   labels:
  84.     k8s-app: kubernetes-dashboard
  85.   name: kubernetes-dashboard
  86.   namespace: kubernetes-dashboard
  87. rules:
  88.   # Allow Dashboard to get, update and delete Dashboard exclusive secrets.
  89.   - apiGroups: [""]
  90.     resources: ["secrets"]
  91.     resourceNames: ["kubernetes-dashboard-key-holder""kubernetes-dashboard-certs""kubernetes-dashboard-csrf"]
  92.     verbs: ["get""update""delete"]
  93.     # Allow Dashboard to get and update 'kubernetes-dashboard-settings' config map.
  94.   - apiGroups: [""]
  95.     resources: ["configmaps"]
  96.     resourceNames: ["kubernetes-dashboard-settings"]
  97.     verbs: ["get""update"]
  98.     # Allow Dashboard to get metrics.
  99.   - apiGroups: [""]
  100.     resources: ["services"]
  101.     resourceNames: ["heapster""dashboard-metrics-scraper"]
  102.     verbs: ["proxy"]
  103.   - apiGroups: [""]
  104.     resources: ["services/proxy"]
  105.     resourceNames: ["heapster""http:heapster:""https:heapster:""dashboard-metrics-scraper""http:dashboard-metrics-scraper"]
  106.     verbs: ["get"]
  107. ---
  108. kind: ClusterRole
  109. apiVersion: rbac.authorization.k8s.io/v1
  110. metadata:
  111.   labels:
  112.     k8s-app: kubernetes-dashboard
  113.   name: kubernetes-dashboard
  114. rules:
  115.   # Allow Metrics Scraper to get metrics from the Metrics server
  116.   - apiGroups: ["metrics.k8s.io"]
  117.     resources: ["pods""nodes"]
  118.     verbs: ["get""list""watch"]
  119. ---
  120. apiVersion: rbac.authorization.k8s.io/v1
  121. kind: RoleBinding
  122. metadata:
  123.   labels:
  124.     k8s-app: kubernetes-dashboard
  125.   name: kubernetes-dashboard
  126.   namespace: kubernetes-dashboard
  127. roleRef:
  128.   apiGroup: rbac.authorization.k8s.io
  129.   kind: Role
  130.   name: kubernetes-dashboard
  131. subjects:
  132.   - kind: ServiceAccount
  133.     name: kubernetes-dashboard
  134.     namespace: kubernetes-dashboard
  135. ---
  136. apiVersion: rbac.authorization.k8s.io/v1
  137. kind: ClusterRoleBinding
  138. metadata:
  139.   name: kubernetes-dashboard
  140. roleRef:
  141.   apiGroup: rbac.authorization.k8s.io
  142.   kind: ClusterRole
  143.   name: kubernetes-dashboard
  144. subjects:
  145.   - kind: ServiceAccount
  146.     name: kubernetes-dashboard
  147.     namespace: kubernetes-dashboard
  148. ---
  149. kind: Deployment
  150. apiVersion: apps/v1
  151. metadata:
  152.   labels:
  153.     k8s-app: kubernetes-dashboard
  154.   name: kubernetes-dashboard
  155.   namespace: kubernetes-dashboard
  156. spec:
  157.   replicas: 1
  158.   revisionHistoryLimit: 10
  159.   selector:
  160.     matchLabels:
  161.       k8s-app: kubernetes-dashboard
  162.   template:
  163.     metadata:
  164.       labels:
  165.         k8s-app: kubernetes-dashboard
  166.     spec:
  167.       securityContext:
  168.         seccompProfile:
  169.           type: RuntimeDefault
  170.       containers:
  171.         - name: kubernetes-dashboard
  172.           image: kubernetesui/dashboard:v2.6.0
  173.           imagePullPolicy: Always
  174.           ports:
  175.             - containerPort: 8443
  176.               protocol: TCP
  177.           args:
  178.             - --auto-generate-certificates
  179.             - --namespace=kubernetes-dashboard
  180.             # Uncomment the following line to manually specify Kubernetes API server Host
  181.             # If not specified, Dashboard will attempt to auto discover the API server and connect
  182.             # to it. Uncomment only if the default does not work.
  183.             # - --apiserver-host=http://my-address:port
  184.           volumeMounts:
  185.             - name: kubernetes-dashboard-certs
  186.               mountPath: /certs
  187.               # Create on-disk volume to store exec logs
  188.             - mountPath: /tmp
  189.               name: tmp-volume
  190.           livenessProbe:
  191.             httpGet:
  192.               scheme: HTTPS
  193.               path: /
  194.               port: 8443
  195.             initialDelaySeconds: 30
  196.             timeoutSeconds: 30
  197.           securityContext:
  198.             allowPrivilegeEscalation: false
  199.             readOnlyRootFilesystem: true
  200.             runAsUser: 1001
  201.             runAsGroup: 2001
  202.       volumes:
  203.         - name: kubernetes-dashboard-certs
  204.           secret:
  205.             secretName: kubernetes-dashboard-certs
  206.         - name: tmp-volume
  207.           emptyDir: {}
  208.       serviceAccountName: kubernetes-dashboard
  209.       nodeSelector:
  210.         "kubernetes.io/os": linux
  211.       # Comment the following tolerations if Dashboard must not be deployed on master
  212.       tolerations:
  213.         - key: node-role.kubernetes.io/master
  214.           effect: NoSchedule
  215. ---
  216. kind: Service
  217. apiVersion: v1
  218. metadata:
  219.   labels:
  220.     k8s-app: dashboard-metrics-scraper
  221.   name: dashboard-metrics-scraper
  222.   namespace: kubernetes-dashboard
  223. spec:
  224.   ports:
  225.     - port: 8000
  226.       targetPort: 8000
  227.   selector:
  228.     k8s-app: dashboard-metrics-scraper
  229. ---
  230. kind: Deployment
  231. apiVersion: apps/v1
  232. metadata:
  233.   labels:
  234.     k8s-app: dashboard-metrics-scraper
  235.   name: dashboard-metrics-scraper
  236.   namespace: kubernetes-dashboard
  237. spec:
  238.   replicas: 1
  239.   revisionHistoryLimit: 10
  240.   selector:
  241.     matchLabels:
  242.       k8s-app: dashboard-metrics-scraper
  243.   template:
  244.     metadata:
  245.       labels:
  246.         k8s-app: dashboard-metrics-scraper
  247.     spec:
  248.       securityContext:
  249.         seccompProfile:
  250.           type: RuntimeDefault
  251.       containers:
  252.         - name: dashboard-metrics-scraper
  253.           image: kubernetesui/metrics-scraper:v1.0.8
  254.           ports:
  255.             - containerPort: 8000
  256.               protocol: TCP
  257.           livenessProbe:
  258.             httpGet:
  259.               scheme: HTTP
  260.               path: /
  261.               port: 8000
  262.             initialDelaySeconds: 30
  263.             timeoutSeconds: 30
  264.           volumeMounts:
  265.           - mountPath: /tmp
  266.             name: tmp-volume
  267.           securityContext:
  268.             allowPrivilegeEscalation: false
  269.             readOnlyRootFilesystem: true
  270.             runAsUser: 1001
  271.             runAsGroup: 2001
  272.       serviceAccountName: kubernetes-dashboard
  273.       nodeSelector:
  274.         "kubernetes.io/os": linux
  275.       # Comment the following tolerations if Dashboard must not be deployed on master
  276.       tolerations:
  277.         - key: node-role.kubernetes.io/master
  278.           effect: NoSchedule
  279.       volumes:
  280.         - name: tmp-volume
  281.           emptyDir: {}

45df21c2472754caedb63ebd3091052f.png
重新部署

  1. kubectl delete -f recommended.yaml
  2. kubectl apply -f recommended.yaml
  3. kubectl get svc,pods -n kubernetes-dashboard
057fa4757d18f3ec92ec0336b2c39dc4.png

2)创建登录用户

  1. cat >ServiceAccount.yaml<<EOF
  2. apiVersion: v1
  3. kind: ServiceAccount
  4. metadata:
  5.   name: admin-user
  6.   namespace: kubernetes-dashboard
  7. ---
  8. apiVersion: rbac.authorization.k8s.io/v1
  9. kind: ClusterRoleBinding
  10. metadata:
  11.   name: admin-user
  12. roleRef:
  13.   apiGroup: rbac.authorization.k8s.io
  14.   kind: ClusterRole
  15.   name: cluster-admin
  16. subjects:
  17. - kind: ServiceAccount
  18.   name: admin-user
  19.   namespace: kubernetes-dashboard
  20. EOF
  21. kubectl apply -f ServiceAccount.yaml

创建并获取登录 token

kubectl -n kubernetes-dashboard create token admin-user

3)配置 hosts 登录 dashboard web

192.168.0.120 cluster-endpoint

登录:https://cluster-endpoint:31443
2fa438b2fdf03e863aa00db57aab58bf.png

输入上面创建的 token 登录
25525e79a1759746b6d034d436467267.png

四、k8s 镜像仓库 harbor 环境部署

GitHub 地址:https://github.com/helm/helm/releases
这使用 helm 安装,所以得先安装 helm

1)安装 helm

  1. mkdir -p /opt/k8s/helm && cd /opt/k8s/helm
  2. wget https://get.helm.sh/helm-v3.9.0-rc.1-linux-amd64.tar.gz
  3. tar -xf helm-v3.9.0-rc.1-linux-amd64.tar.gz
  4. ln -s /opt/k8s/helm/linux-amd64/helm /usr/bin/helm
  5. helm version
  6. helm help

2)配置 hosts

192.168.0.120 myharbor.com

3)创建 stl 证书

  1. mkdir /opt/k8s/helm/stl && cd /opt/k8s/helm/stl
  2. # 生成 CA 证书私钥
  3. openssl genrsa -out ca.key 4096
  4. # 生成 CA 证书
  5. openssl req -x509 -new -nodes -sha512 -days 3650 \
  6.  -subj "/C=CN/ST=Guangdong/L=Shenzhen/O=harbor/OU=harbor/CN=myharbor.com" \
  7.  -key ca.key \
  8.  -out ca.crt
  9. # 创建域名证书,生成私钥
  10. openssl genrsa -out myharbor.com.key 4096
  11. # 生成证书签名请求 CSR
  12. openssl req -sha512 -new \
  13.     -subj "/C=CN/ST=Guangdong/L=Shenzhen/O=harbor/OU=harbor/CN=myharbor.com" \
  14.     -key myharbor.com.key \
  15.     -out myharbor.com.csr
  16. # 生成 x509 v3 扩展
  17. cat > v3.ext <<-EOF
  18. authorityKeyIdentifier=keyid,issuer
  19. basicConstraints=CA:FALSE
  20. keyUsage = digitalSignature, nonRepudiation, keyEncipherment, dataEncipherment
  21. extendedKeyUsage = serverAuth
  22. subjectAltName = @alt_names
  23. [alt_names]
  24. DNS.1=myharbor.com
  25. DNS.2=*.myharbor.com
  26. DNS.3=hostname
  27. EOF
  28. #创建 Harbor 访问证书
  29. openssl x509 -req -sha512 -days 3650 \
  30.     -extfile v3.ext \
  31.     -CA ca.crt -CAkey ca.key -CAcreateserial \
  32.     -in myharbor.com.csr \
  33.     -out myharbor.com.crt

4)安装 ingress

ingress 官方网站:https://kubernetes.github.io/ingress-nginx/
ingress 仓库地址:https://github.com/kubernetes/ingress-nginx
部署文档:https://kubernetes.github.io/ingress-nginx/deploy/

1、通过 helm 部署
  1. helm upgrade --install ingress-nginx ingress-nginx \
  2.   --repo https://kubernetes.github.io/ingress-nginx \
  3.   --namespace ingress-nginx --create-namespace
2、通过 YAML 文件安装(本章使用这个方式安装 ingress)
kubectl apply -f https://raw.githubusercontent.com/kubernetes/ingress-nginx/controller-v1.2.0/deploy/static/provider/cloud/deploy.yaml

如果下载镜像失败,可以用以下方式修改镜像地址再安装

  1. # 可以先把镜像下载,再安装
  2. docker pull registry.cn-hangzhou.aliyuncs.com/google_containers/nginx-ingress-controller:v1.2.0
  3. docker pull registry.cn-hangzhou.aliyuncs.com/google_containers/kube-webhook-certgen:v1.1.1
  4. wget https://raw.githubusercontent.com/kubernetes/ingress-nginx/controller-v1.2.0/deploy/static/provider/cloud/deploy.yaml
  5. # 修改镜像地址
  6. sed -i 's@k8s.gcr.io/ingress-nginx/controller:v1.2.0\(.*\)@registry.cn-hangzhou.aliyuncs.com/google_containers/nginx-ingress-controller:v1.2.0@' deploy.yaml
  7. sed -i 's@k8s.gcr.io/ingress-nginx/kube-webhook-certgen:v1.1.1\(.*\)$@registry.cn-hangzhou.aliyuncs.com/google_containers/kube-webhook-certgen:v1.1.1@' deploy.yaml
  8. ###还需要修改两地方
  9. #1、kind: 类型修改成DaemonSet,replicas: 注销掉,因为DaemonSet模式会每个节点运行一个pod
  10. #2、在添加一条:hostnetwork:true
  11. #3、把LoadBalancer修改成NodePort
  12. #4、在--validating-webhook-key下面添加- --watch-ingress-without-class=true
  13. #5、设置master节点可调度
  14. kubectl taint nodes k8s-master-168-0-113 node-role.kubernetes.io/control-plane:NoSchedule-
  15. kubectl taint nodes k8s-master2-168-0-116 node-role.kubernetes.io/control-plane:NoSchedule-
  16. kubectl apply -f deploy.yaml
8680525d25153fbb621eef57726918a2.png

5)安装 nfs

1、所有节点安装 nfs
yum -y install  nfs-utils rpcbind
2、在 master 节点创建共享目录并授权
  1. mkdir /opt/nfsdata
  2. # 授权共享目录
  3. chmod 666 /opt/nfsdata
3、配置 exports 文件
  1. cat > /etc/exports<<EOF
  2. /opt/nfsdata *(rw,no_root_squash,no_all_squash,sync)
  3. EOF
  4. # 配置生效
  5. exportfs -r

exportfs 命令

常用选项
-a 全部挂载或者全部卸载
-r 重新挂载
-u 卸载某一个目录
-v 显示共享目录 以下操作在服务端上

4、启动 rpc 和 nfs(客户端只需要启动 rpc 服务)(注意顺序)
  1. systemctl start rpcbind
  2. systemctl start nfs-server
  3. systemctl enable rpcbind
  4. systemctl enable nfs-server

查看

  1. showmount -e
  2. # VIP
  3. showmount -e 192.168.0.120

-e 显示 NFS 服务器的共享列表
-a 显示本机挂载的文件资源的情况 NFS 资源的情况
-v 显示版本号

5、客户端
  1. # 安装
  2. yum -y install  nfs-utils rpcbind
  3. # 启动rpc服务
  4. systemctl start rpcbind
  5. systemctl enable rpcbind
  6. # 创建挂载目录
  7. mkdir /mnt/nfsdata
  8. # 挂载
  9. echo "192.168.0.120:/opt/nfsdata /mnt/nfsdata     nfs    defaults  0 1">> /etc/fstab
  10. mount -a
6、rsync 数据同步
【1】rsync 安装
  1. # 两端都得安装
  2. yum -y install rsync
【2】配置

在/etc/rsyncd.conf 中添加

  1. cat >/etc/rsyncd.conf<<EOF
  2. uid = root
  3. gid = root
  4. #禁锢在源目录
  5. use chroot = yes
  6. #监听地址
  7. address = 192.168.0.113
  8. #监听地址tcp/udp 873,可通过cat /etc/services | grep rsync查看
  9. port 873
  10. #日志文件位置
  11. log file = /var/log/rsyncd.log
  12. #存放进程 ID 的文件位置
  13. pid file = /var/run/rsyncd.pid
  14. #允许访问的客户机地址
  15. hosts allow = 192.168.0.0/16
  16. #共享模块名称
  17. [nfsdata]
  18. #源目录的实际路径
  19. path = /opt/nfsdata
  20. comment = Document Root of www.kgc.com
  21. #指定客户端是否可以上传文件,默认对所有模块为 true
  22. read only = yes
  23. #同步时不再压缩的文件类型
  24. dont compress = *.gz *.bz2 *.tgz *.zip *.rar *.z
  25. #授权账户,多个账号以空格分隔,不加则为匿名,不依赖系统账号
  26. auth users = backuper
  27. #存放账户信息的数据文件
  28. secrets file = /etc/rsyncd_users.db
  29. EOF

配置 rsyncd_users.db

  1. cat >/etc/rsyncd_users.db<<EOF
  2. backuper:123456
  3. EOF
  4. #官方要求,最好只是赋权600
  5. chmod 600 /etc/rsyncd_users.db
【3】rsyncd.conf 常用参数详解

rsyncd.conf 参数

rsyncd.conf 参数参数说明
uid=rootrsync 使用的用户。
gid=rootrsync 使用的用户组(用户所在的组)
use chroot=no如果为 true,daemon 会在客户端传输文件前“chroot to the path”。这是一种安全配置,因为我们大多数都在内网,所以不配也没关系
max connections=200设置最大连接数,默认 0,意思无限制,负值为关闭这个模块
timeout=400默认为 0,表示 no timeout,建议 300-600(5-10 分钟)
pid filersync daemon 启动后将其进程 pid 写入此文件。如果这个文件存在,rsync 不会覆盖该文件,而是会终止
lock file指定 lock 文件用来支持“max connections”参数,使得总连接数不会超过限制
log file不设或者设置错误,rsync 会使用 rsyslog 输出相关日志信息
ignore errors忽略 I/O 错误
read only=false指定客户端是否可以上传文件,默认对所有模块为 true
list=false是否允许客户端可以查看可用模块列表,默认为可以
hosts allow指定可以联系的客户端主机名或和 ip 地址或地址段,默认情况没有此参数,即都可以连接
hosts deny指定不可以联系的客户端主机名或 ip 地址或地址段,默认情况没有此参数,即都可以连接
auth users指定以空格或逗号分隔的用户可以使用哪些模块,用户不需要在本地系统中存在。默认为所有用户无密码访问
secrets file指定用户名和密码存放的文件,格式;用户名;密码,密码不超过 8 位
[backup]这里就是模块名称,需用中括号扩起来,起名称没有特殊要求,但最好是有意义的名称,便于以后维护
path这个模块中,daemon 使用的文件系统或目录,目录的权限要注意和配置文件中的权限一致,否则会遇到读写的问题
【4】rsync 常用命令参数详解
  1. rsync --help
  2. rsync [选项]  原始位置   目标位置
  3. 常用选项    说明
  4. -r    递归模式,包含目录及子目录中的所有文件
  5. -l    对于符号链接文件仍然复制为符号链接文件
  6. -v    显示同步过程的详细信息
  7. -z    在传输文件时进行压缩goD
  8. -p    保留文件的权限标记
  9. -a    归档模式,递归并保留对象属性,等同于-rlpt
  10. -t    保留文件的时间标记
  11. -g    保留文件的属组标记(仅超级用户使用)
  12. -o    保留文件的属主标记(仅超级用户使用)
  13. -H    保留硬链接文件
  14. -A    保留ACL属性信息
  15. -D    保留设备文件及其他特殊文件
  16. --delete  删除目标位置有而原始位置没有的文件
  17. --checksum  根据对象的校验和来决定是否跳过文件
【5】启动服务(数据源机器)
  1. #rsync监听端口:873
  2. #rsync运行模式:C/S
  3. rsync --daemon --config=/etc/rsyncd.conf
  4. netstat -tnlp|grep :873
【6】执行命令同步数据
  1. # 在目的机器上执行
  2. # rsync -avz 用户名@源主机地址/源目录 目的目录
  3. rsync -avz root@192.168.0.113:/opt/nfsdata/* /opt/nfsdata/
【7】crontab 定时同步
  1. # 配置crontab, 每五分钟同步一次,这种方式不好
  2. */5 * * * * rsync -avz root@192.168.0.113:/opt/nfsdata/* /opt/nfsdata/

【温馨提示】crontab 定时同步数据不太好,可以使用rsync+inotify做数据实时同步,这里篇幅有点长了,先不讲,如果后面有时间会出一篇单独文章来讲。

6)创建 nfs provisioner 和持久化存储 SC

【温馨提示】这里跟我之前的文章有点不同,之前的方式也不适用新版本。

GitHub 地址:https://github.com/kubernetes-sigs/nfs-subdir-external-provisioner

helm 部署 nfs-subdir-external-provisioner

1、添加 helm 仓库
helm repo add nfs-subdir-external-provisioner https://kubernetes-sigs.github.io/nfs-subdir-external-provisioner/
2、helm 安装 nfs provisioner

【温馨提示】默认镜像是无法访问的,这里使用 dockerhub 搜索到的镜像willdockerhub/nfs-subdir-external-provisioner:v4.0.2,还有就是 StorageClass 不分命名空间,所有在所有命名空间下都可以使用。

  1. helm install nfs-subdir-external-provisioner nfs-subdir-external-provisioner/nfs-subdir-external-provisioner \
  2.   --namespace=nfs-provisioner \
  3.   --create-namespace \
  4.   --set image.repository=willdockerhub/nfs-subdir-external-provisioner \
  5.   --set image.tag=v4.0.2 \
  6.   --set replicaCount=2 \
  7.   --set storageClass.name=nfs-client \
  8.   --set storageClass.defaultClass=true \
  9.   --set nfs.server=192.168.0.120 \
  10.   --set nfs.path=/opt/nfsdata

【温馨提示】上面 nfs.server 设置为 VIP,可实现高可用。

3、查看
kubectl get pods,deploy,sc -n nfs-provisioner
07ed807b0b30873d68d71e822decb713.png

7)部署 Harbor(Https 方式)

1、创建 Namespace
kubectl create ns harbor
2、创建证书秘钥
  1. kubectl create secret tls myharbor.com --key myharbor.com.key --cert myharbor.com.crt -n harbor
  2. kubectl get secret myharbor.com -n harbor
3、添加 Chart 库
helm repo add harbor https://helm.goharbor.io
4、通过 helm 安装 harbor
  1. helm install myharbor --namespace harbor harbor/harbor \
  2.   --set expose.ingress.hosts.core=myharbor.com \
  3.   --set expose.ingress.hosts.notary=notary.myharbor.com \
  4.   --set-string expose.ingress.annotations.'nginx\.org/client-max-body-size'="1024m" \
  5.   --set expose.tls.secretName=myharbor.com \
  6.   --set persistence.persistentVolumeClaim.registry.storageClass=nfs-client \
  7.   --set persistence.persistentVolumeClaim.jobservice.storageClass=nfs-client \
  8.   --set persistence.persistentVolumeClaim.database.storageClass=nfs-client \
  9.   --set persistence.persistentVolumeClaim.redis.storageClass=nfs-client \
  10.   --set persistence.persistentVolumeClaim.trivy.storageClass=nfs-client \
  11.   --set persistence.persistentVolumeClaim.chartmuseum.storageClass=nfs-client \
  12.   --set persistence.enabled=true \
  13.   --set externalURL=https://myharbor.com \
  14.   --set harborAdminPassword=Harbor12345

这里稍等一段时间在查看资源状态

kubectl get ingress,svc,pods,pvc -n harbor
106b3b92d117796a85c15609cc43b76c.png
5、ingress 没有 ADDRESS 问题解决

【分析】,发现"error: endpoints “default-http-backend” not found"

  1. cat << EOF > default-http-backend.yaml
  2. ---
  3. apiVersion: apps/v1
  4. kind: Deployment
  5. metadata:
  6.   name: default-http-backend
  7.   labels:
  8.     app: default-http-backend
  9.   namespace: harbor
  10. spec:
  11.   replicas: 1
  12.   selector:
  13.     matchLabels:
  14.       app: default-http-backend
  15.   template:
  16.     metadata:
  17.       labels:
  18.         app: default-http-backend
  19.     spec:
  20.       terminationGracePeriodSeconds: 60
  21.       containers:
  22.       - name: default-http-backend
  23.         # Any image is permissible as long as:
  24.         # 1. It serves a 404 page at /
  25.         # 2. It serves 200 on a /healthz endpoint
  26.         image: registry.cn-hangzhou.aliyuncs.com/google_containers/defaultbackend:1.4
  27. #        image: gcr.io/google_containers/defaultbackend:1.4
  28.         livenessProbe:
  29.           httpGet:
  30.             path: /healthz
  31.             port: 8080
  32.             scheme: HTTP
  33.           initialDelaySeconds: 30
  34.           timeoutSeconds: 5
  35.         ports:
  36.         - containerPort: 8080
  37.         resources:
  38.           limits:
  39.             cpu: 10m
  40.             memory: 20Mi
  41.           requests:
  42.             cpu: 10m
  43.             memory: 20Mi
  44. ---
  45. apiVersion: v1
  46. kind: Service
  47. metadata:
  48.   name: default-http-backend
  49.   namespace: harbor
  50.   labels:
  51.     app: default-http-backend
  52. spec:
  53.   ports:
  54.   - port: 80
  55.     targetPort: 8080
  56.   selector:
  57.     app: default-http-backend
  58. EOF
  59. kubectl apply -f default-http-backend.yaml
6、卸载重新部署
  1. # 卸载
  2. helm uninstall myharbor -n harbor
  3. kubectl get pvc -n harbor| awk 'NR!=1{print $1}' | xargs kubectl delete pvc -n harbor
  4. # 部署
  5. helm install myharbor --namespace harbor harbor/harbor \
  6.   --set expose.ingress.hosts.core=myharbor.com \
  7.   --set expose.ingress.hosts.notary=notary.myharbor.com \
  8.   --set-string expose.ingress.annotations.'nginx\.org/client-max-body-size'="1024m" \
  9.   --set expose.tls.secretName=myharbor.com \
  10.   --set persistence.persistentVolumeClaim.registry.storageClass=nfs-client \
  11.   --set persistence.persistentVolumeClaim.jobservice.storageClass=nfs-client \
  12.   --set persistence.persistentVolumeClaim.database.storageClass=nfs-client \
  13.   --set persistence.persistentVolumeClaim.redis.storageClass=nfs-client \
  14.   --set persistence.persistentVolumeClaim.trivy.storageClass=nfs-client \
  15.   --set persistence.persistentVolumeClaim.chartmuseum.storageClass=nfs-client \
  16.   --set persistence.enabled=true \
  17.   --set externalURL=https://myharbor.com \
  18.   --set harborAdminPassword=Harbor12345
6058156e1651b904aac29c6e68c5db6a.png
5、访问 harbor

https://myharbor.com
账号/密码:admin/Harbor12345
685b61c4e455c1209dbbfd93b1867e43.png

6、harbor 常见操作
【1】创建项目 bigdata
6687a4297f53e6f7563df071afb8d072.png
【2】配置私有仓库

在文件/etc/docker/daemon.json添加如下内容:

"insecure-registries":["https://myharbor.com"]

重启 docker

systemctl restart docker
【3】服务器上登录 harbor
  1. docker login https://myharbor.com
  2. #账号/密码:admin/Harbor12345
e13fb012a450b2b44b3e1d5944cb2523.png
【4】打标签并把镜像上传到 harbor
  1. docker tag rancher/pause:3.6 myharbor.com/bigdata/pause:3.6
  2. docker push myharbor.com/bigdata/pause:3.6
7、修改 containerd 配置

以前使用 docker-engine 的时候,只需要修改/etc/docker/daemon.json 就行,但是新版的 k8s 已经使用 containerd 了,所以这里需要做相关配置,要不然 containerd 会失败。证书(ca.crt)可以在页面上下载:
8d3bb0f10578e393922bccc7b93d3351.png
创建域名目录

  1. mkdir /etc/containerd/myharbor.com
  2. cp ca.crt /etc/containerd/myharbor.com/

配置文件:/etc/containerd/config.toml

  1. [plugins."io.containerd.grpc.v1.cri".registry]
  2.       config_path = ""
  3.       [plugins."io.containerd.grpc.v1.cri".registry.auths]
  4.       [plugins."io.containerd.grpc.v1.cri".registry.configs]
  5.         [plugins."io.containerd.grpc.v1.cri".registry.configs."myharbor.com".tls]
  6.           ca_file = "/etc/containerd/myharbor.com/ca.crt"
  7.         [plugins."io.containerd.grpc.v1.cri".registry.configs."myharbor.com".auth]
  8.           username = "admin"
  9.           password = "Harbor12345"
  10.       [plugins."io.containerd.grpc.v1.cri".registry.headers]
  11.       [plugins."io.containerd.grpc.v1.cri".registry.mirrors]
  12.         [plugins."io.containerd.grpc.v1.cri".registry.mirrors."myharbor.com"]
  13.           endpoint = ["https://myharbor.com"]

87d2db05d04d42b1861023cbb0d9c787.png
重启 containerd

  1. #重新加载配置
  2. systemctl daemon-reload
  3. #重启containerd
  4. systemctl restart containerd

简单使用

  1. # 把docker换成crictl 就行,命令都差不多
  2. crictl pull myharbor.com/bigdata/mysql:5.7.38

执行 crictl 报如下错误的解决办法

  1. WARN[0000] image connect using default endpoints: [unix:///var/run/dockershim.sock unix:///run/containerd/containerd.sock unix:///run/crio/crio.sock unix:///var/run/cri-dockerd.sock]. As the default settings are now deprecated, you should set the endpoint instead.
  2. ERRO[0000] unable to determine image API version: rpc error: code = Unavailable desc = connection error: desc = "transport: Error while dialing dial unix /var/run/dockershim.sock: connect: no such file or directory"

这个报错是 docker 的报错,这里没使用,所以这个错误不影响使用,但是还是解决好点,解决方法如下:

  1. cat <<EOF> /etc/crictl.yaml
  2. runtime-endpoint: unix:///run/containerd/containerd.sock
  3. image-endpoint: unix:///run/containerd/containerd.sock
  4. timeout: 10
  5. debug: false
  6. EOF

再次拉取镜像

crictl pull myharbor.com/bigdata/mysql:5.7.38
8477240f561462cfe7a78bcc21e15aef.png

Kubernetes(k8s)最新版最完整版基础环境部署+master 高可用实现详细步骤就到这里了,有疑问的小伙伴欢迎给我留言哦~


链接:https://www.cnblogs.com/liugp/p/16345473.html

(版权归原作者所有,侵删)

  1. 推荐阅读:
  2. 世界的真实格局分析,地球人类社会底层运行原理
  3. 不是你需要中台,而是一名合格的架构师(附各大厂中台建设PPT)
  4. 企业IT技术架构规划方案
  5. 论数字化转型——转什么,如何转?
  6. 华为干部与人才发展手册(附PPT)
  7. 企业10大管理流程图,数字化转型从业者必备!
  8. 【中台实践】华为大数据中台架构分享.pdf
  9. 华为的数字化转型方法论
  10. 华为如何实施数字化转型(附PPT)
  11. 超详细280页Docker实战文档!开放下载
  12. 华为大数据解决方案(PPT)
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/很楠不爱3/article/detail/477669
推荐阅读
相关标签
  

闽ICP备14008679号