当前位置:   article > 正文

轻量级 Kubernetes 集群发行版 K3s 完全进阶指南

k3s kube proxy ipvs

公众号关注 「奇妙的 Linux 世界」

设为「星标」,每天带你玩转 Linux !

047194b44aa2ba1f106ee54307b0fe0f.png

深入理解官方文档,轻松学会使用 K3S 工具!

K3s 是一个轻量级的 Kubernetes 发行版,它针对边缘计算、物联网等场景进行了高度优化。

  • CNCF 认证的 Kubernetes 发行版

  • 支持 X86_64, ARM64, ARMv7 平台

  • 单一进程包含 Kubernetes masterkubeletcontainerd

1. K3S 工具介绍

为你提供 k3s 的产品介绍

K3s 有以下增强功能:

  • 打包为单个二进制文件

    • K8S 相关的组件,比如 kube-api/ kube-manager 都打包到同一个二进制文件里面,这样的话,只需要启动这个文件就可以快速的启动对应的组件。

  • 使用基于 sqlite3 的默认存储机制

    • 同时支持使用 etcd3MySQLPostgreSQL 作为存储机制。

  • 默认情况下是安全的

    • K3s 中有一个默认的证书管理机制(默认一年有效期),也有一个可以轮转证书的功能(就是在小于九十天之内重启 K3s 的话,就会自动续一年)。

  • 功能强大的 batteries-included 功能

    • 就是虽然有些服务本身这个二进制文件并没有提供,但是可以通过内置的服务,将配置文件放到指定的目录下面,就可以在启动的时候一并将该服务启动或替换默认组件。

  • 所有 K8S control-plane 组件都封装在单个二进制文件和进程中

    • 因为封装在二进制文件中,所以启动的时候只有一个进程。好处在于只需要管理这个单一进程就可以了,同时也具备操作复杂集群的能力。

  • 最大程度减轻了外部依赖性

    • 即稍新一点的 Linux 内核就可以了(需要 kernelcgroup 挂载)。

之所以叫做 K3S 是因为希望安装的 K8S 在内存占用方面只是一半的大小,而一半大的东西就是一个 5 个字母的单词,简写为 K3S

  • 生命周期

    • 同时支持 3K8s 版本,支持的生命周期与 K8s 相同

    • 可以参考: Kubernetes 版本及版本偏差支持策略 进行学习

  • 更新周期

    • K8s 更新新版本后,一般 K3s 在一周内同步更新

    • 可以通过 这个链接 获取 latest/stable/testing 版本

    • 我们默认安装的是 stable 版本,可以运行通过命令进行查看

  • 命名规范

    • v1.20.4+k3s1: v1.20.4K8s 版本,k3s1 为补丁版本

  1. # K3s软件包需要的依赖项
  2. containerd  # 容器运行时(可以使用docker替代)
  3. Flannel     # 网络
  4. CoreDNS     # DNS
  5. CNI         # CNI
  6. Traefik     # 默认的controller服务(apisix/ingress-controller)
  7. iptables    # 主机实用程序
  8. service load balancer     # 嵌入式服务负载均衡器
  9. network policy controller # 嵌入式网络策略控制器
  10. # K3s适用于以下场景
  11. CI
  12. Development
  13. ARM
  14. 嵌入 K8s
  15. 物联网-IoT
  16. 边缘计算-Edge

与此同时,Rancher 中国团队推出了一款针对 K3s 的效率提升工具:AutoK3s。只需要输入一行命令,即可快速创建 K3s 集群并添加指定数量的 master 节点和 worker 节点。

2. K3S 快速入门

原理就是,将 K8S 的相关组件封装到 K3S 的二进制文件中去!

原理就是,将 K8S 的相关组件封装到 K3S 的二进制文件中去,然后启动这二进制文件就可以启动一个成熟的 K8S 集群。我们可以看到 K3SK8S 的架构基本差不多,其中 k3s-server 对应这个 control-plane,而 k3s-agent 对应着 node 节点。

可以看到 k3s 中使用的默认存储是 SQLite(自带),且默认的网络使用的是 Flannel(自带)。当服务端和客户端都启动之后,通过 Tunnel-Proxy 这个组件进行通信,通过这个通道去管理网络流量。在 agent 节点中,通过 kubelet 操作 contaninerd 来创建对应 Pod

  • K3s 架构

d61b1398b6e990a25d24a58f71be781f.png
K3S工具进阶指南
  • K8s 架构

f8f885f06bc037adf70ca60a96f264c2.png
K3S工具进阶指南

国内的话,建议使用官方提供的 镜像地址,这样不但可以加速本地 K3s 的时候,而且方便部署和更新服务。这也是为什么建议国内使用 k3s-install.sh 部署服务的原因,因为其内部使用的地址都是从国内去获取的。

3. K3S 安装事项

3.1 安装指南

理解 Server 节点的安装,以及注册 Agent 节点的步骤!

虽然可以通过下载二进制文件进行服务端和工作节点的运行(./k3s server),但是一旦我们退出进程,之前创建的节点也就立即销毁了,所以还是建议使用脚本进行安装。

  1. # 主节点
  2. $ ./k3s server
  3. # 工作节点
  4. $ ./k3s agent K3S_URL=xxx K3S_TOKEN=xxx
  5. # 清除垃圾文件
  6. $ rm -rf /etc/rancher /var/lib/rancher
  • 镜像加速

  1. # 添加配置
  2. $ cat >> /etc/rancher/k3s/registries.yaml <<EOF
  3. mirrors:
  4.   "docker.io":
  5.     endpoint:
  6.       - "https://fogjl973.mirror.aliyuncs.com"
  7.       - "https://registry-1.docker.io"
  8. EOF
  9. # 重启服务
  10. $ sudo systemctl restart k3s
  11. # 是否生效
  12. $ sudo crictl info | grep -A 2 "endpoint"

K3s 提供了一个安装脚本,可以方便的在 systemdopenrc 的系统上将其作为服务安装。运行此安装后,K3s 服务将被配置为在节点重启后或进程崩溃或被杀死时自动重启。

  • 安装内容

    • kubectlcrictlctr

    • k3s-killall.shk3s-uninstall.sh

  • 执行操作

    • kubeconfig 文件写入到 /etc/rancher/k3s/k3s.yaml 里面

    • K3s 安装的 kubectl 工具将自动使用该文件的配置来运行

    • 其他机器可以通过复制这个配置文件并修改 server 地址来操作 K3s 集群

  • 主节点 - 192.168.100.100

  1. # 安装脚本
  2. # https://get.k3s.io
  3. $ curl -sfL https://get.k3s.io | sh -
  4. # 建议使用这个安装脚本(国内化了)
  5. $ curl -sfL https://rancher-mirror.rancher.cn/k3s/k3s-install.sh | \
  6.     INSTALL_K3S_MIRROR=cn K3S_NODE_NAME=k3s1 \
  7.     K3S_KUBECONFIG_OUTPUT=/home/escape/.kube/config \
  8.     INSTALL_K3S_EXEC="--docker" sh -
  1. # 查找stable分支版本信息
  2. [INFO]  Finding release for channel stable
  3. [INFO]  Using v1.23.6+k3s1 as release
  4. # 获取国内镜像版本地址
  5. [INFO]  Downloading hash https://rancher-mirror.rancher.cn/k3s/v1.23.6-k3s1/sha256sum-amd64.txt
  6. [INFO]  Downloading binary https://rancher-mirror.rancher.cn/k3s/v1.23.6-k3s1/k3s
  7. [INFO]  Verifying binary download
  8. # 安装k3s二进制工具并链接相关工具(内置)
  9. [INFO]  Installing k3s to /usr/local/bin/k3s
  10. [INFO]  Skipping installation of SELinux RPM
  11. [INFO]  Creating /usr/local/bin/kubectl symlink to k3s
  12. [INFO]  Creating /usr/local/bin/crictl symlink to k3s
  13. [INFO]  Skipping /usr/local/bin/ctr symlink to k3s, command exists in PATH at /usr/bin/ctr
  14. # 安装清除和卸载k3s生成的配置和工具
  15. [INFO]  Creating killall script /usr/local/bin/k3s-killall.sh
  16. [INFO]  Creating uninstall script /usr/local/bin/k3s-uninstall.sh
  17. # 常见了两个systemd的配置
  18. [INFO]  env: Creating environment file /etc/systemd/system/k3s.service.env
  19. [INFO]  systemd: Creating service file /etc/systemd/system/k3s.service
  20. [INFO]  systemd: Enabling k3s unit
  21. Created symlink /etc/systemd/system/multi-user.target.wants/k3s.service → /etc/systemd/system/k3s.service.
  22. # 启动k3s服务
  23. [INFO]  systemd: Starting k3s
  • 工作节点 - 192.168.100.101

  1. # 工作节点上安装并将它们添加到集群
  2. # https://docs.rancher.cn/docs/k3s/architecture/_index#注册-agent-节点
  3. $ curl -sfL https://get.k3s.io | \
  4.     K3S_URL=https://myserver:6443 \
  5.     K3S_TOKEN=mynodetoken sh -
  6. # 建议使用这个安装命令(国内化了)
  7. # K3S_URL: 会使K3s以worker模式运行
  8. # K3S_TOKEN: 使用的值存储在你的服务器节点上
  9. # K3S_NODE_NAME: 为每个节点提供一个有效且唯一的主机名
  10. $ curl -sfL https://rancher-mirror.rancher.cn/k3s/k3s-install.sh | \
  11.     INSTALL_K3S_MIRROR=cn K3S_NODE_NAME=k3s2 \
  12.     K3S_KUBECONFIG_OUTPUT=/home/escape/.kube/config \
  13.     K3S_URL=https://192.168.100.100:6443 \
  14.     K3S_TOKEN=mynodetoken sh -
  15. # mynodetoken
  16. $ sudo cat /var/lib/rancher/k3s/server/token
  1. # 查找stable分支版本信息
  2. [INFO]  Finding release for channel stable
  3. [INFO]  Using v1.23.6+k3s1 as release
  4. # 获取国内镜像版本地址
  5. [INFO]  Downloading hash https://rancher-mirror.rancher.cn/k3s/v1.23.6-k3s1/sha256sum-amd64.txt
  6. [INFO]  Downloading binary https://rancher-mirror.rancher.cn/k3s/v1.23.6-k3s1/k3s
  7. [INFO]  Verifying binary download
  8. # 安装k3s二进制工具并链接相关工具(内置)
  9. [INFO]  Installing k3s to /usr/local/bin/k3s
  10. [INFO]  Creating /usr/local/bin/kubectl symlink to k3s
  11. [INFO]  Creating /usr/local/bin/crictl symlink to k3s
  12. [INFO]  Skipping /usr/local/bin/ctr symlink to k3s
  13. # 安装清除和卸载k3s生成的配置和工具
  14. [INFO]  Creating killall script /usr/local/bin/k3s-agent-killall.sh
  15. [INFO]  Creating uninstall script /usr/local/bin/k3s-agent-uninstall.sh
  16. # 常见了两个systemd的配置
  17. [INFO]  env: Creating environment file /etc/systemd/system/k3s-agent.service.env
  18. [INFO]  systemd: Creating service file /etc/systemd/system/k3s-agent.service
  19. [INFO]  systemd: Enabling k3s-agent unit
  20. Created symlink /etc/systemd/system/multi-user.target.wants/k3s-agent.service → /etc/systemd/system/k3s-agent.service.
  21. # 启动k3s服务
  22. [INFO]  systemd: Starting k3s-agent

3.2 配置要求

理解 Server 节点的安装,以及注册 Agent 节点的步骤!

  • [1] 先决条件

    • 选择上,两个节点不能有相同的主机名

    • 不修改主机名可以通过添加随机后缀或指定主机名

  1. # 为每个节点添加随机后缀
  2. $ curl -sfL http://rancher-mirror.cnrancher.com/k3s/k3s-install.sh | \
  3.     INSTALL_K3S_MIRROR=cn K3S_URL=https://192.168.100.100:6443 \
  4.     K3S_TOKEN=xxx sh -s - --with-node-id
  5. # 为每个节点指定主机名
  6. $ curl -sfL http://rancher-mirror.cnrancher.com/k3s/k3s-install.sh | \
  7.     K3S_NODE_NAME="k3s2" INSTALL_K3S_MIRROR=cn \
  8.     K3S_URL=https://192.168.64.3:6443 K3S_TOKEN=xxx sh -
  9. # 为每个节点指定主机名
  10. $ curl -sfL http://rancher-mirror.cnrancher.com/k3s/k3s-install.sh | \
  11.     INSTALL_K3S_MIRROR=cn K3S_URL=https://192.168.64.3:6443 \
  12.     K3S_TOKEN=xxx sh -s - --node-name k3s2
  • [2] 硬件信息

    • 操作系统:可以在大多数现代 Linux 系统上运行

    • 磁盘设备:K3s 的性能取决于数据库的性能(建议使用 SSD 硬盘)

    • 网络相关:K3s Server 节点的入站规则,所有出站流量都是允许的

协议端口描述
TCP6443K3s agent 节点Kubernetes API Server
UDP8472K3s server 和 agent 节点仅对 Flannel VXLAN 需要
TCP10250K3s server 和 agent 节点Kubelet metrics
TCP2379-2380K3s server 节点只有嵌入式 etcd 高可用才需要
  • [3] 安装选项

    • 官方安装参数文档

    • 安装选项示例演示

Environment VariableDescription
INSTALL_K3S_EXEC用于在服务中启动 K3s 的后续子命令
K3S_CONFIG_FILE指定配置文件的位置
K3S_TOKEN用于将 server/agent 加入集群的共享 secret
K3S_TOKEN_FILE用于将 server/agent 加入集群的共享 secret 文件
INSTALL_K3S_VERSION指定下载 K3s 的版本
K3S_TOKEN_FILE指定  cluster-secret/token 的文件目录
INSTALL_K3S_SKIP_START将不会启动 K3s 服务
INSTALL_K3S_SKIP_DOWNLOAD用于离线安装;设置之后不会下载远程工具
  1. # 其实就把对应参数加到systemd配置文件里面去了
  2. $ curl -sfL http://rancher-mirror.cnrancher.com/k3s/k3s-install.sh | \
  3.     INSTALL_K3S_MIRROR=cn \
  4.     INSTALL_K3S_EXEC="--docker" sh -
  5. # 自动化部署(不用获取token值了)
  6. # 主节点和工作节点使用我们指定的key来通信
  7. $ curl -sfL http://rancher-mirror.cnrancher.com/k3s/k3s-install.sh | \
  8.     INSTALL_K3S_MIRROR=cn \
  9.     K3S_TOKEN=rancher-k3s sh -
  10. $ sudo cat /var/lib/rancher/k3s/server/token
  • [4] 其他说明

    • 运行 agent 时还必须设置 K3S_TOKEN

    • K3S_ 开头的环境变量将被保留,供 systemd/openrc 使用

    • 没有明确设置 exec 并设置 K3S_URL 的话会将命令默认为工作节点

3.3 命令参数

理解 Server 节点的安装,以及注册 Agent 节点的步骤!

在整个 K3s 文档中,你会看到一些选项可以作为命令标志和环境变量传递进来,那该如何使用标志和环境变量呢?

  • [1] 使用标志和环境变量

  1. # 使用标志
  2. $ curl -sfL https://get.k3s.io | K3S_KUBECONFIG_MODE="644" sh -s -
  3. $ curl -sfL https://get.k3s.io | sh -s - --write-kubeconfig-mode 644
  4. # 环境变量
  5. $ curl -sfL https://get.k3s.io | \
  6.     INSTALL_K3S_EXEC="--flannel-backend none" sh -s -
  7. $ curl -sfL https://get.k3s.io | \
  8.     sh -s - server --flannel-backend none
  • [2] K3s Server/Agent - 常用配置

  1. # write-kubeconfig
  2. # 将管理客户端的kubeconfig写入这个文件
  3. $ curl -sfL http://rancher-mirror.cnrancher.com/k3s/k3s-install.sh | \
  4.     INSTALL_K3S_MIRROR=cn \
  5.     K3S_KUBECONFIG_OUTPUT=/root/.kube/config \
  6.     sh -
  1. # 使用docker作为容器运行时
  2. $ curl -sfL http://rancher-mirror.cnrancher.com/k3s/k3s-install.sh | \
  3.     INSTALL_K3S_MIRROR=cn \
  4.     INSTALL_K3S_EXEC="--docker" sh -
  5. # 指定运行时工具
  6. $ curl -sfL http://rancher-mirror.cnrancher.com/k3s/k3s-install.sh | \
  7.     INSTALL_K3S_MIRROR=cn \
  8.     INSTALL_K3S_EXEC="--container-runtime-endpoint containerd" \
  9.     sh -
  10. # 设置私有镜像仓库配置文件
  11. # 默认配置文件: /etc/rancher/k3s/registries.yaml
  12. $ curl -sfL http://rancher-mirror.cnrancher.com/k3s/k3s-install.sh | \
  13.     INSTALL_K3S_MIRROR=cn \
  14.     INSTALL_K3S_EXEC="--private-registry xxx" \
  15.     sh -
  1. # 针对多网卡主机安装K3s集群
  2. # 默认多网卡会使用默认网关的那个卡
  3. $ rout -n
  4. # K3s server
  5. $ curl -sfL http://rancher-mirror.cnrancher.com/k3s/k3s-install.sh | \
  6.     INSTALL_K3S_MIRROR=cn \
  7.     INSTALL_K3S_EXEC="--node-ip=192.168.100.100" \
  8.     sh -
  9. # K3s agent
  10. $ curl -sfL http://rancher-mirror.cnrancher.com/k3s/k3s-install.sh | \
  11.     INSTALL_K3S_MIRROR=cn \
  12.     K3S_URL=https://192.168.99.211:6443 K3S_TOKEN=xxx \
  13.     INSTALL_K3S_EXEC="--node-ip=192.168.100.100" \
  14.     sh -
  1. # --tls-san
  2. # 在TLS证书中添加其他主机名或IP作为主机备用名称
  3. # 即在公网环境下允许通过公网IP访问控制、操作远程集群
  4. # 或者部署多个Server并使用LB进行负责,就需要保留公网地址
  5. $ curl -sfL http://rancher-mirror.cnrancher.com/k3s/k3s-install.sh | \
  6.     INSTALL_K3S_MIRROR=cn \
  7.     INSTALL_K3S_EXEC="--tls-san 1.1.1.1"  \
  8.     sh -
  9. # 获取配置
  10. $ kubectl get secret k3s-serving -n kube-system -o yaml
  11. # 然后本机复制公网主节点对应的yaml文件即可本地操作了
  12. $ scp ci@1.1.1.1:/etc/rancher/k3s/k3s.yaml ~/.kube/config
  1. # 修改启动的服务对应配置(调整节点的启动的最大Pod数量)
  2. $ curl -sfL http://rancher-mirror.cnrancher.com/k3s/k3s-install.sh | \
  3.     INSTALL_K3S_MIRROR=cn \
  4.     INSTALL_K3S_EXEC='--kubelet-arg=max-pods=200' \
  5.     sh -
  6. # 修改启动的服务对应配置(使用ipvs作为服务调度工具)
  7. $ curl -sfL http://rancher-mirror.cnrancher.com/k3s/k3s-install.sh | \
  8.     INSTALL_K3S_MIRROR=cn \
  9.     INSTALL_K3S_EXEC='--kube-proxy-arg=proxy-mode=ipvs' \
  10.     sh -
  11. # 修改启动的服务对应配置(调整服务启动的端口范围)
  12. $ curl -sfL http://rancher-mirror.cnrancher.com/k3s/k3s-install.sh | \
  13.     INSTALL_K3S_MIRROR=cn \
  14.     INSTALL_K3S_EXEC='--kube-apiserver-arg=service-node-port-range=40000-50000' \
  15.     sh -
  16. # kubelet-arg     --kubelet-arg
  17. # kube-apiserver  --kube-apiserver-arg
  18. # kube-proxy-arg  --kube-proxy-arg
  19. # kube-proxy-arg  --kube-proxy-arg=proxy-mode=ipvs
  1. # --data-dir
  2. # 修改K3s数据存储目录
  3. $ curl -sfL http://rancher-mirror.cnrancher.com/k3s/k3s-install.sh | \
  4.     INSTALL_K3S_MIRROR=cn \
  5.     INSTALL_K3S_EXEC='--data-dir=/opt/k3s-data' \
  6.     sh -
  1. # 禁用组件
  2. $ curl -sfL http://rancher-mirror.cnrancher.com/k3s/k3s-install.sh | \
  3.     INSTALL_K3S_MIRROR=cn \
  4.     INSTALL_K3S_EXEC='--disable traefik' \
  5.     sh -
  6. # 自己加自己需要的服务
  7. $ ls /var/lib/rancher/k3s/server/manifests
  8. $ kubectl get pods -A | grep traefik
  1. # 添加label和taint标识
  2. $ curl -sfL http://rancher-mirror.cnrancher.com/k3s/k3s-install.sh | \
  3.     INSTALL_K3S_MIRROR=cn \
  4.     INSTALL_K3S_EXEC='--node-label foo=bar,hello=world \
  5.         --node-taint key1=value1:NoExecute'
  6.     sh -
  7. # 查看一下
  8. $ kubectl describe nodes
  • [3] K3s Server/Agent - 数据库选项

  1. # 指定数据源名称
  2. # 标志位: --datastore-endpoint&nbsp;value
  3. # 环境变量: K3S_DATASTORE_ENDPOINT
  4. $ curl -sfL http://rancher-mirror.cnrancher.com/k3s/k3s-install.sh | \
  5.     INSTALL_K3S_MIRROR=cn \
  6.     INSTALL_K3S_EXEC='--datastore-endpoint&nbsp;etcd' \
  7.     sh -
  1. # cron规范中的快照间隔时间
  2. # --etcd-snapshot-schedule-cron&nbsp;value
  3. $ curl -sfL http://rancher-mirror.cnrancher.com/k3s/k3s-install.sh | \
  4.     INSTALL_K3S_MIRROR=cn \
  5.     INSTALL_K3S_EXEC='--etcd-snapshot-schedule-cron *&nbsp;*/5&nbsp;*&nbsp;*&nbsp;*' \
  6.     sh -

3.4 网络选项

理解 Server 节点的安装,以及注册 Agent 节点的步骤!

默认情况下,K3s 将以 flannel 作为 CNI 运行,使用 VXLAN 作为默认后端,CNI 和默认后端都可以通过参数修改。要启用加密,请使用下面的 IPSecWireGuard 选项。

  1. # 默认安装K3s之后的网络配置
  2. $ sudo cat /var/lib/rancher/k3s/agent/etc/flannel/net-conf.json
  3. {
  4.     "Network""10.42.0.0/16",
  5.     "EnableIPv6"false,
  6.     "EnableIPv4"true,
  7.     "IPv6Network""::/0",
  8.     "Backend": {
  9.         "Type""vxlan"
  10.     }
  11. }
CLI Flag 和 Value描述
--flannel-backend=vxlan使用 VXLAN 后端(默认)
--flannel-backend=host-gw使用 host-gw 后端
--flannel-backend=ipsec使用 IPSEC 后端;对网络流量进行加密
--flannel-backend=wireguard使用 WireGuard 后端;对网络流量进行加密
  • 配置 Flannel 选项

这样,我就可以在安装 K3s 或者之后修改对应配置文件,来修改 Flannel 默认的后端网络配置选项(重启会覆盖不生效)了。下面,我们演示下,如何修改为 host-gw 模式。

  1. # 主节点
  2. # flannel-backend使用host-gw
  3. # 该模式会把对端主机的IP当做默认网管(多Server情况)
  4. $ curl -sfL http://rancher-mirror.cnrancher.com/k3s/k3s-install.sh | \
  5.     INSTALL_K3S_MIRROR=cn \
  6.     INSTALL_K3S_EXEC='--flannel-backend=host-gw' \
  7.     sh -
  8. # 工作节点
  9. $ curl -sfL http://rancher-mirror.cnrancher.com/k3s/k3s-install.sh | \
  10.     INSTALL_K3S_MIRROR=cn K3S_URL=https://192.168.100.100:6443 \
  11.     K3S_TOKEN=xxx sh -
  1. # 默认的路由信息
  2. $ route -n
  3. 0.0.0.0         172.16.64.1     0.0.0.0         UG    100    0        0 enp0s2
  4. 10.42.1.0       172.16.64.9     255.255.255.0   UG    0      0        0 enp0s2
  5. # 查看配置之后的网络配置
  6. $ sudo cat /var/lib/rancher/k3s/agent/etc/flannel/net-conf.json
  7. {
  8.     "Network""10.42.0.0/16",
  9.     "Backend": {
  10.         "Type""host-gw"
  11.     }
  12. }
  • 启用 Directrouting 特性

Flannel 自身的特性:当主机在同一子网时,启用 direct routes(如 host-gw)。vxlan 只用于将数据包封装到不同子网的主机上,同子网的主机之间使用  host-gw,默认值为  false

要添加我们就不能修改其对应的网络配置文件,因为重新安装或者重启都会把这个配置冲掉(变成默认配置),所以需要折中下。我们自建一个网络配置文件,然后在启动的时候执行从哪个配置文件里面加载对应配置。

  1. # k3s的master和agent
  2. $ sudo cat /etc/flannel/net-conf.json
  3. {
  4.     "Network""10.42.0.0/16",
  5.     "Backend": {
  6.         "Type""vxlan",
  7.         "Directrouting"true
  8.     }
  9. }
  10. # k3s master
  11. $ curl -sfL http://rancher-mirror.cnrancher.com/k3s/k3s-install.sh | \
  12.     INSTALL_K3S_MIRROR=cn \
  13.     INSTALL_K3S_EXEC='--flannel-backend=host-gw' \
  14.     sh -
  • 自定义 CNI

使用  --flannel-backend=none(禁用) 运行 K3s,然后在安装你选择的 CNI。按照 Calico CNI 插件指南 来修改 CalicoYAML 配置文件,在 container_settings 部分中允许 IP 转发。

  1. # 加到Calico的YAML文件中
  2. # 允许IP转发(这个是K3s的一个限制;需要开启)
  3. "container_settings": {
  4.     "allow_ip_forwarding"true
  5. }
  6. - name: CALICO_IPV4POOL_CIDR
  7.   value: "192.168.200.0/24"
  1. # 通过在主机上运行以下命令,确保设置已被应用(true)
  2. $ sudo cat /etc/cni/net.d/10-canal.conflist
  3. # calico
  4. # 其中--cluster-cidr可不设置
  5. $ curl -sfL http://rancher-mirror.cnrancher.com/k3s/k3s-install.sh | \
  6.     INSTALL_K3S_MIRROR=cn \
  7.     INSTALL_K3S_EXEC='--flannel-backend=none \
  8.         --cluster-cidr=192.168.200.0/24"' \
  9.     sh -
  10. # 启动网络服务
  11. $ kubectl apply -f ./calico.yaml

3.5 外部数据库

理解 Server 节点的安装,以及注册 Agent 节点的步骤!

虽然单节点 k3s server 集群可以满足各种用例,但是对于需要稳定运行的重要环境,可以在 HA 配置中运行 K3s,如何使用外部数据库安装一个高可用的 K3s 集群?

3e12a58f16aa473a636dfb123802b1c2.png
K3S安装事项 - 外部数据库
主机名角色IP
k3s-server-1k3s master172.31.2.134
k3s-server-2k3s master172.31.2.42
k3s-dbDB172.31.10.251
k3s-lbLB172.31.13.97
k3s-agentk3s agent172.31.15.130
  1. 1.创建一个外部数据存储
  2. $ docker run --name some-mysql \
  3.     --restart=unless-stopped -p 3306:3306 \
  4.     -e MYSQL_ROOT_PASSWORD=password -d mysql:5.7
  5. 2.启动k3s-server节点(有读写权限不用加库名)
  6. # mysql://username:password@tcp(hostname:3306)/database-name
  7. # 可加污点 --node-taint CriticalAddonsOnly=true:NoExecute
  8. $ curl -sfL http://rancher-mirror.cnrancher.com/k3s/k3s-install.sh | \
  9.     INSTALL_K3S_MIRROR=cn sh - server \
  10.     --datastore-endpoint="mysql://root:password@ip:3306/k3s" \
  11.     --tls-san 172.31.13.97
  1. 3.配置固定的注册地址(k3s-lb节点)
  2. # Agent节点需要一个URL来注册(LB)
  3. $ cat >> /etc/nginx.conf <<EOF
  4. worker_processes 4;
  5. worker_rlimit_nofile 40000;
  6. events {
  7.     worker_connections 8192;
  8. }
  9. stream {
  10.     upstream k3s_api {
  11.         least_conn;
  12.         server 172.31.2.134:6443 max_fails=3 fail_timeout=5s;
  13.         server 172.31.2.42:6443 max_fails=3 fail_timeout=5s;
  14.     }
  15.     server {
  16.         listen     6443;
  17.         proxy_pass k3s_api;
  18.     }
  19. }
  20. EOF
  21. # 启动服务
  22. $ docker run -d --restart=unless-stopped \
  23.   -p 6443:6443 \
  24.   -v /etc/nginx.conf:/etc/nginx/nginx.conf \
  25.   nginx:1.14
  1. 4.加入Agent节点
  2. # Agent会保存LB节点和每个Server节点的IP信息
  3. # cat /var/lib/rancher/k3s/agent/etc/k3s-agent-load-balancer.json
  4. $ curl -sfL http://rancher-mirror.cnrancher.com/k3s/k3s-install.sh | \
  5.     INSTALL_K3S_MIRROR=cn
  6.     K3S_URL=https://172.31.13.97:6443 K3S_TOKEN=mynodetoken \
  7.     sh -
  8. 5.通过kubeconfig访问K3s集群
  9. $ kubectl get nodes
  10. NAME           STATUS   ROLES                  AGE   VERSION
  11. k3s-server-1   Ready    control-plane,master   68s   v1.20.7+k3s1
  12. k3s-server-2   Ready    control-plane,master   66s   v1.20.7+k3s1
  • [2] 嵌入式 DB 的高可用

要在这种模式下运行 K3s,你必须有奇数的服务器节点,建议从三个节点开始。在嵌入式中,默认使用 Etcd 作为高可用的数据库。

  1. # 服务器节点(启动etcd集群)
  2. # SECRET我们预定一个key值
  3. # 使用cluster-init标志来启用集群
  4. # 并使用一个标记作为共享的密钥来加入其他服务器到集群中
  5. $ curl -sfL http://rancher-mirror.cnrancher.com/k3s/k3s-install.sh | \
  6.     INSTALL_K3S_MIRROR=cn K3S_TOKEN=SECRET \
  7.     sh -s - --cluster-init
  8. # 查看类型
  9. $ sudo  kubectl get nodes
  10. NAME    STATUS  ROLES                      AGE  VERSION
  11. ip-xxx  Ready   control-plane,etcd,master  19h  v1.23.6+k3s1
  12. # 其他服务器节点(2/3)
  13. $ curl -sfL http://rancher-mirror.cnrancher.com/k3s/k3s-install.sh | \
  14.     INSTALL_K3S_MIRROR=cn K3S_TOKEN=SECRET \
  15.     sh -s - --server https://<ip-or-host-server>:6443
  16. # 查询ETCD集群状态
  17. # etcd证书默认目录:/var/lib/rancher/k3s/server/tls/etcd
  18. # etcd数据默认目录:/var/lib/rancher/k3s/server/db/etcd
  19. $ ETCDCTL_ENDPOINTS='https://172.31.12.136:2379,\
  20.     https://172.31.4.43:2379,\
  21.     https://172.31.4.190:2379' \
  22. ETCDCTL_CACERT='/var/lib/rancher/k3s/server/tls/etcd/server-ca.crt' \
  23. ETCDCTL_CERT='/var/lib/rancher/k3s/server/tls/etcd/server-client.crt'\
  24. ETCDCTL_KEY='/var/lib/rancher/k3s/server/tls/etcd/server-client.key' \
  25. ETCDCTL_API=3 etcdctl endpoint status --write-out=table
  • [3] 集群数据存储选项

使用 etcd 以外的数据存储运行 K8S 的能力使 K3s 区别于其他 K8S 发行版。该功能为 K8S 操作者提供了灵活性,可用的数据存储选项允许你选择一个最适合用例的数据存储。

如果你的团队没有操作 etcd 的专业知识,可以选择 MySQLPostgreSQL 等企业级 SQL 数据库。如果您需要在 CI/CD 环境中运行一个简单的、短暂的集群,可以使用嵌入式 SQLite 数据库

如果你想使用外部数据存储,如 PostgreSQLMySQLetcd,你必须设置 datastore-endpoint 参数,以便 K3s 知道如何连接到它,也可以指定参数来配置连接的认证和加密。下表总结了这些参数,它们可以作为 CLI 标志或环境变量传递。

CLI Flag环境变量描述
--datastore-endpointK3S_DATASTORE_ENDPOINT指定一个 PostgresSQL、MySQL 或 etcd 连接字符串。用于描述与数据存储的连接。这个字符串的结构是特定于每个后端的,详情如下。
--datastore-cafileK3S_DATASTORE_CAFILETLS 证书颁发机构(CA)文件,用于帮助确保与数据存储的通信安全。如果你的数据存储通过 TLS 服务请求,使用由自定义证书颁发机构签署的证书,你可以使用这个参数指定该 CA,这样 K3s 客户端就可以正确验证证书。
--datastore-certfileK3S_DATASTORE_CERTFILETLS 证书文件,用于对数据存储进行基于客户端证书的验证。要使用这个功能,你的数据存储必须被配置为支持基于客户端证书的认证。如果你指定了这个参数,你还必须指定datastore-keyfile参数。
--datastore-keyfileK3S_DATASTORE_KEYFILETLS 密钥文件,用于对数据存储进行基于客户端证书的认证。更多细节请参见前面的datastore-certfile参数。

作为最佳实践,我们建议将这些参数设置为环境变量,而不是命令行参数,这样你的数据库证书或其他敏感信息就不会作为进程信息的一部分暴露出来。

3.6 私有镜像仓库

理解 Server 节点的安装,以及注册 Agent 节点的步骤!

K3s 默认使用 containerd 作为容器运行时,所以在 docker 上配置镜像仓库是不生效的。K3s 镜像仓库配置文件由两大部分组成:mirrors 和  configs

  • Mirrors 是一个用于定义专用镜像仓库的名称和 endpoint 的指令

  • Configs 部分定义了每个 mirrorTLS 和证书配置

  • 对于每个 mirror,你可以定义 auth/tls

K3s registry 配置目录为:/etc/rancher/k3s/registries.yamlK3s 启动时会检查  /etc/rancher/k3s/ 中是否存在  registries.yaml 文件,并指示 containerd 使用文件中定义的镜像仓库。如果你想使用一个私有的镜像仓库,那么你需要在每个使用镜像仓库的节点上以 root 身份创建这个文件。

请注意,server 节点默认是可以调度的。如果你没有在 server 节点上设置污点,那么将在它们上运行工作负载,请确保在每个 server 节点上创建  registries.yaml 文件。

containerd 使用了类似 K8Ssvcendpoint 的概念,svc 可以理解为访问名称,这个名称会解析到对应的 endpoint 上。也可以理解 mirror 配置就是一个反向代理,它把客户端的请求代理到 endpoint 配置的后端镜像仓库。mirror 名称可以随意填写,但是必须符合 IP 或域名的定义规则。并且可以配置多个 endpoint,默认解析到第一个 endpoint,如果第一个 endpoint 没有返回数据,则自动切换到第二个 endpoint,以此类推。

  1. # /etc/rancher/k3s/registries.yaml
  2. # 同时可以设置多个mirrors地址
  3. # 可以对mirrors设置权限和证书
  4. mirrors:
  5.   "172.31.6.200:5000":
  6.     endpoint:
  7.       - "http://172.31.6.200:5000"
  8.       - "http://x.x.x.x:5000"
  9.       - "http://y.y.y.y:5000"
  10.   "rancher.ksd.top:5000":
  11.     endpoint:
  12.       - "http://172.31.6.200:5000"
  13.   "docker.io":
  14.     endpoint:
  15.       - "https://fogjl973.mirror.aliyuncs.com"
  16.       - "https://registry-1.docker.io"
  17. configs:
  18.   "172.31.6.200:5000":
  19.     auth:
  20.       username: admin
  21.       password: Harbor@12345
  22.     tls:
  23.       cert_file: /home/ubuntu/harbor2.escapelife.site.cert
  24.       key_file: /home/ubuntu/harbor2.escapelife.site.key
  25.       ca_file: /home/ubuntu/ca.crt
  1. # 镜像都是从同一个仓库获取到的
  2. $ sudo systemctl restart k3s.service
  3. $ sudo crictl pull 172.31.6.200:5000/library/alpine
  4. $ sudo crictl pull rancher.ksd.top:5000/library/alpine

这里我们介绍下,如何使用 TLS 配置。

  1. # 证书颁发机构颁发的证书
  2. $ cat >> /etc/rancher/k3s/registries.yaml <<EOF
  3. mirrors:
  4.   "harbor.escapelife.site":
  5.     endpoint:
  6.       - "https://harbor.escapelife.site"
  7. configs:
  8.   "harbor.escapelife.site":
  9.     auth:
  10.       username: admin
  11.       password: Harbor@12345
  12. EOF
  13. $ sudo systemctl restart k3s
  1. # 自签名证书
  2. $ cat >> /etc/rancher/k3s/registries.yaml <<EOF
  3. mirrors:
  4.   "harbor2.escapelife.site":
  5.     endpoint:
  6.       - "https://harbor2.escapelife.site"
  7. configs:
  8.   "harbor2.escapelife.site":
  9.     auth:
  10.       username: admin
  11.       password: Harbor@12345
  12.     tls:
  13.       cert_file: /home/ubuntu/harbor2.escapelife.site.cert
  14.       key_file:  /home/ubuntu/harbor2.escapelife.site.key
  15.       ca_file:   /home/ubuntu/ca.crt
  16. EOF
  17. $ sudo systemctl restart k3s
  1. # 不使用TLS证书
  2. $ cat >> /etc/rancher/k3s/registries.yaml <<EOF
  3. mirrors:
  4.   "docker.io":
  5.     endpoint:
  6.       - "https://fogjl973.mirror.aliyuncs.com"
  7.       - "https://registry-1.docker.io"
  8. EOF
  9. $ sudo systemctl restart k3s

K3s 将会在 /var/lib/rancher/k3s/agent/etc/containerd/config.toml 中为 containerd 生成  config.toml。如果要对这个文件进行高级设置,你可以在同一目录中创建另一个名为  config.toml.tmpl 的文件,此文件将会代替默认设置。

  1. # 完整示例
  2. $ cat >> /etc/rancher/k3s/registries.yaml
  3. mirrors:
  4.   "harbor.escapelife.site":
  5.      endpoint:
  6.      - "https://harbor.escapelife.site"
  7.   "harbor2.escapelife.site":
  8.      endpoint:
  9.      - "https://harbor2.escapelife.site"
  10.   "172.31.19.227:5000":
  11.      endpoint:
  12.      - "http://172.31.19.227:5000"
  13.   "docker.io":
  14.      endpoint:
  15.      - "https://fogjl973.mirror.aliyuncs.com"
  16.      - "https://registry-1.docker.io"
  17. configs:
  18.   "harbor.escapelife.site":
  19.      auth:
  20.        username: admin
  21.        password: Harbor@12345
  22.   "harbor2.escapelife.site":
  23.      auth:
  24.        username: admin
  25.        password: Harbor@12345
  26.      tls:
  27.        cert_file: /home/ubuntu/harbor2.escapelife.site.cert
  28.        key_file:  /home/ubuntu/harbor2.escapelife.site.key
  29.        ca_file:   /home/ubuntu/ca.crt

3.7 离线安装

理解 Server 节点的安装,以及注册 Agent 节点的步骤!

离线安装的过程主要分为以下两个步骤:

  • 步骤 1:部署镜像

    • 部署私有镜像仓库

    • 手动部署镜像

  • 步骤 2:安装 K3s 工具

    • 单节点安装

    • 高可用安装

  • 通过私有镜像仓库安装 K3s

    • k3s-images.txt 包含对于版本依赖的镜像文件

    • k3s-airgap-images-amd64.tar 包含对于版本的镜像文件

  1. # 将所需镜像上传到私有镜像仓库
  2. # https://github.com/k3s-io/k3s/releases
  3. 可以从K3s镜像列表获取到版本,下载上传到私有镜像仓库
  4. # 创建镜像仓库(YAML)
  5. # 按照私有镜像仓库配置指南创建并配置registry.yaml文件
  6. $ mkdir -p /etc/rancher/k3s/
  7. cat >> /etc/rancher/k3s/registries.yaml <<EOF
  8. mirrors:
  9.   "docker.io":
  10.     endpoint:
  11.       - "https://harbor.escapelife.site"
  12. configs:
  13.   "docker.io":
  14.     auth:
  15.       username: admin
  16.       password: Harbor@12345
  17. EOF
  1. # 安装单节点K3s集群
  2. # https://github.com/k3s-io/k3s/releases
  3. 可以从K3s仓库获取到版本(二进制文件)
  4. # 获取K3s安装脚本
  5. $ wget https://get.k3s.io -o ./install.sh
  6. $ wget http://rancher-mirror.cnrancher.com/k3s/k3s-install.sh
  7. # 安装K3s-server
  8. $ INSTALL_K3S_SKIP_DOWNLOAD=true ./install.sh
  9. # 将agent加入到K3s集群
  10. $ INSTALL_K3S_SKIP_DOWNLOAD=true \
  11.     K3S_URL=https://myserver:6443 K3S_TOKEN=mynodetoken \
  12.     ./install.sh
  • 通过手动部署镜像安装 K3s

  1. # 从Github页面获取你所运行的K3s版本及文件
  2. # https://github.com/rancher/k3s/releases
  3. k3s二进制文件+镜像tar文件
  4. # 将tar文件放在images目录下
  5. $ sudo mkdir -p /var/lib/rancher/k3s/agent/images/
  6. $ sudo cp ./k3s-airgap-images-$ARCH.tar /var/lib/rancher/k3s/agent/images/
  7. # 将k3s二进制文件放在/usr/local/bin/k3s路径上
  8. $ mv ./k3s /usr/local/bin/
  9. $ chmod 755 /usr/local/bin/k3s
  10. # 安装K3s-server
  11. $ INSTALL_K3S_SKIP_DOWNLOAD=true ./install.sh
  12. # 将agent加入到K3s集群
  13. $ INSTALL_K3S_SKIP_DOWNLOAD=true \
  14.     K3S_URL=https://myserver:6443 K3S_TOKEN=mynodetoken \
  15.     ./install.sh

离线升级 K3s 版本,完成离线安装 K3s 后,还可以通过脚本升级 K3s 版本,或启用自动升级功能,以保持离线环境中的 K3s 版本与最新的 K3s 版本同步。

  • 升级 K3s 版本

  1. # 通过脚本升级
  2. # https://github.com/rancher/k3s/releases
  3. 从Github页面下载要升级到的K3s版本
  4. # 替换
  5. # 复制并替换每个节点上/usr/local/bin中的旧K3s二进制文件
  6. $ mv ./k3s /usr/local/bin/
  7. $ chmod 755 /usr/local/bin/k3s
  8. $ wget http://rancher-mirror.cnrancher.com/k3s/k3s-install.sh
  9. # 重启K3s服务
  10. $ sudo systemctl restart k3s.service

3.8 仪表盘及卸载

理解 Server 节点的安装,以及注册 Agent 节点的步骤!

推荐使用三种仪表盘工具,分别是对应是 Kubernetes Dashboardkube-explorerRancher UI,其各自各有优劣。

  • [1] Kubernetes Dashboard

  1. # 部署Kubernetes仪表盘
  2. $ GITHUB_URL=https://github.com/kubernetes/dashboard/releases
  3. $ VERSION_KUBE_DASHBOARD=$(curl -w '%{url_effective}' -I -L -s -S \
  4.     ${GITHUB_URL}/latest -o /dev/null | sed -e 's|.*/||')
  5. $ sudo k3s kubectl create -f https://raw.githubusercontent.com/kubernetes/dashboard/${VERSION_KUBE_DASHBOARD}/aio/deploy/recommended.yaml
  1. # 仪表盘RBAC配置
  2. # 本指南中创建的admin-user将在仪表盘中拥有管理权限
  3. $ sudo k3s kubectl create \
  4.     -f dashboard.admin-user.yml \
  5.     -f dashboard.admin-user-role.yml
  6. # dashboard.admin-user.yml
  7. apiVersion: v1
  8. kind: ServiceAccount
  9. metadata:
  10.   name: admin-user
  11.   namespace: kubernetes-dashboard
  12. # dashboard.admin-user-role.yml
  13. apiVersion: rbac.authorization.k8s.io/v1
  14. kind: ClusterRoleBinding
  15. metadata:
  16.   name: admin-user
  17. roleRef:
  18.   apiGroup: rbac.authorization.k8s.io
  19.   kind: ClusterRole
  20.   name: cluster-admin
  21. subjects:
  22.   - kind: ServiceAccount
  23.     name: admin-user
  24.     namespace: kubernetes-dashboard
  1. # 获得Bearer-Token
  2. $ sudo k3s kubectl -n kubernetes-dashboard \
  3.     describe secret admin-user-token | grep '^token'
  4. # 本地访问仪表盘
  5. # https://192.168.100.100:8443
  6. # https://www.escapelife.site/posts/180e93f1.html
  7. # https://www.escapelife.site/posts/538ec6b1.html
  8. $ sudo k3s kubectl proxy
  9. $ sudo kubectl -n kubernetes-dashboard port-forward \
  10.     --address 0.0.0.0 svc/kubernets-dashboard 8443:443
  1. # 升级仪表盘
  2. $ sudo k3s kubectl delete ns kubernetes-dashboard
  3. $ GITHUB_URL=https://github.com/kubernetes/dashboard/releases
  4. $ VERSION_KUBE_DASHBOARD=$(curl -w '%{url_effective}' -I -L -s -S ${GITHUB_URL}/latest -o /dev/null | sed -e 's|.*/||')
  5. $ sudo k3s kubectl apply -f https://raw.githubusercontent.com/kubernetes/dashboard/${VERSION_KUBE_DASHBOARD}/aio/deploy/recommended.yaml -f dashboard.admin-user.yml -f dashboard.admin-user-role.yml
  6. # ## 删除仪表盘和admin-user配置
  7. $ sudo k3s kubectl delete ns kubernetes-dashboard
  8. $ sudo k3s kubectl delete clusterrolebinding kubernetes-dashboard
  9. $ sudo k3s kubectl delete clusterrole kubernetes-dashboard
  • [2] kube-explorer

    • kube-explorerK8S 的便携式资源管理器,没有任何依赖

    • 并提供了一个几乎完全无状态的 K8S 资源管理器

  1. # 从发布页面下载二进制文件
  2. # https://github.com/cnrancher/kube-explorer
  3. # 运行
  4. # --kubeconfig 可以不配置(自己可以找到)
  5. $ ./kube-explorer --kubeconfig=/etc/rancher/k3s/kube.yaml \
  6.     --http-listen-port=9898 \
  7.     --https-listen-port=0
  8. # 打开浏览器访问
  9. http://192.168.100.100:9898
  • [3] Rancher UI

    • 可以将 K3s 导入到 Rancher UI 中去管理

    • 官网 导入 K3s 集群 指导文档

  1. # 导入K3s集群时,Rancher会将其识别为K3s类型,并且附件额外功能
  2. 1.能够升级K3s版本
  3. 2.可配置升级集群时升级的最大节点数
  4. 3.在主机详情页能够查看启动K3s集群时每个节点的配置参数和环境变量
  5. # 配置K3s集群以允许导入到Rancher
  6. $ curl -sfL https://rancher-mirror.rancher.cn/k3s/k3s-install.sh | \
  7.     INSTALL_K3S_MIRROR=cn sh -s - \
  8.     --write-kubeconfig-mode 644
  • [4] 卸载 K3s 服务

  1. # 主节点
  2. $ /usr/local/bin/k3s-uninstall.sh
  3. # 工作节点
  4. $ /usr/local/bin/k3s-agent-uninstall.sh
  1. # 包括docker等信息一并清理
  2. #!/bin/bash
  3. KUBE_SVC='
  4. kubelet
  5. kube-scheduler
  6. kube-proxy
  7. kube-controller-manager
  8. kube-apiserver
  9. '
  10. for kube_svc in ${KUBE_SVC};
  11. do
  12.   # 停止服务
  13.   if [[ `systemctl is-active ${kube_svc}` == 'active' ]]; then
  14.     systemctl stop ${kube_svc}
  15.   fi
  16.   # 禁止服务开机启动
  17.   if [[ `systemctl is-enabled ${kube_svc}` == 'enabled' ]]; then
  18.     systemctl disable ${kube_svc}
  19.   fi
  20. done
  21. # 停止所有容器
  22. docker stop $(docker ps -aq)
  23. # 删除所有容器
  24. docker rm -f $(docker ps -qa)
  25. # 删除所有容器卷
  26. docker volume rm $(docker volume ls -q)
  27. # 卸载mount目录
  28. for mount in $(mount | grep tmpfs | grep '/var/lib/kubelet' | awk '{ print $3 }') /var/lib/kubelet /var/lib/rancher;
  29. do
  30.   umount $mount;
  31. done
  32. # 备份目录
  33. mv /etc/kubernetes /etc/kubernetes-bak-$(date +"%Y%m%d%H%M")
  34. mv /var/lib/etcd /var/lib/etcd-bak-$(date +"%Y%m%d%H%M")
  35. mv /var/lib/rancher /var/lib/rancher-bak-$(date +"%Y%m%d%H%M")
  36. mv /opt/rke /opt/rke-bak-$(date +"%Y%m%d%H%M")
  37. # 删除残留路径
  38. rm -rf /etc/ceph \
  39.     /etc/cni \
  40.     /opt/cni \
  41.     /run/secrets/kubernetes.io \
  42.     /run/calico \
  43.     /run/flannel \
  44.     /var/lib/calico \
  45.     /var/lib/cni \
  46.     /var/lib/kubelet \
  47.     /var/log/containers \
  48.     /var/log/kube-audit \
  49.     /var/log/pods \
  50.     /var/run/calico \
  51.     /usr/libexec/kubernetes
  52. # 清理网络接口
  53. no_del_net_inter='
  54. lo
  55. docker0
  56. eth
  57. ens
  58. bond
  59. '
  60. network_interface=`ls /sys/class/net`
  61. for net_inter in $network_interface;
  62. do
  63.   if ! echo "${no_del_net_inter}" | grep -qE ${net_inter:0:3}; then
  64.     ip link delete $net_inter
  65.   fi
  66. done
  67. # 清理残留进程
  68. port_list='
  69. 80
  70. 443
  71. 6443
  72. 2376
  73. 2379
  74. 2380
  75. 8472
  76. 9099
  77. 10250
  78. 10254
  79. '
  80. for port in $port_list;
  81. do
  82.   pid=`netstat -atlnup | grep $port | awk '{print $7}' | awk -F '/' '{print $1}' | grep -v - | sort -rnk2 | uniq`
  83.   if [[ -n $pid ]]; then
  84.     kill -9 $pid
  85.   fi
  86. done
  87. kube_pid=`ps -ef | grep -v grep | grep kube | awk '{print $2}'`
  88. if [[ -n $kube_pid ]]; then
  89.   kill -9 $kube_pid
  90. fi
  91. # 清理Iptables表
  92. ## 注意:如果节点Iptables有特殊配置,以下命令请谨慎操作
  93. sudo iptables --flush
  94. sudo iptables --flush --table nat
  95. sudo iptables --flush --table filter
  96. sudo iptables --table nat --delete-chain
  97. sudo iptables --table filter --delete-chain
  98. systemctl restart docker

3.9 注意事项

理解 Server 节点的安装,以及注册 Agent 节点的步骤!

  • Helm

    • 如果需要使用 helm 操作 K3s 集群,需要创建 ~/.kube/conf 目录

    • 需要执行 cp /etc/rancher/k3s/k3s.yaml ~/.kube/config 命令

  • 自动部署的清单

    • 将由 rancher/helm-controller 在运行时安装

    • 目录路径:/var/lib/rancher/k3s/server/manifests

    • 目录下面的每个 yaml 就代表这个一个需要启动的服务

对于我们希望使用的组件,可以在启动的时候禁用默认组件,在手动部署你需要的一些组件(通常是放到一个指定目录下面,随着服务启动自动拉起),从而达到灵活使用的目的。

  1. # 查看所有Pod服务
  2. # 比如helm/coredns也不是自带的就是通过这个方式创建的
  3. $ sudo kubectl get pods -A
  • 注册 Agent 节点

    • 工作节点密码存储:/etc/rancher/node/password

    • 主节点的密码存储:/var/lib/rancher/k3s/server/cred/node-passwd

agent 节点运行注册命令,会和 server 节点发起 websocket 连接,然后会在工作节点上面创建一个随机的密码。然后会拿着这个密码和工作节点的主机名,发送给主节点。然后主节点会将这个信息在保存(k8s secrets)起来,随后的任何尝试都必须使用相同的密码。

  1. # 工作节点的密码信息(password+hostname)
  2. $ sudo cat /etc/rancher/node/password
  3. # 查看主节点的密码信息
  4. # https://docs.rancher.cn/docs/k3s/architecture/_index#注册-agent-节点
  5. $ sudo kubectl get secret k3s2.node-password.k3s -o yaml -n kube-system
  6. # 可以查看日志信息验证这个信息的存在
  7. $ sudo tail -f 200 /var/log/syslog | grep k3s
  1. # 发现节点信息提示NotReady状态
  2. # 可以尝试删除节点的密码存储信息,之后会自动获取新的
  3. $ sudo kubectl delete secret k3s2.node-password.k3s -n kube-system
  • 自定义存储类型

集群启动之后,默认会启动一个 local-path 的组件,用于提供服务挂载存储使用,其默认以 PVC 的形式。之后,将其存储在 /var/lib/rancher/k3s/server/storageclass 目录下面。

  1. # 查看组件
  2. $ sudo kubectl get pods -A
  3. # 查看对应存储
  4. $ sudo kubectl get storageclass
  5. # 可以使用参数修改默认存储地址
  6. # --default-local-storage-path&nbsp;value
  7. $ curl -sfL http://rancher-mirror.cnrancher.com/k3s/k3s-install.sh | \
  8.     INSTALL_K3S_MIRROR=cn \
  9.     INSTALL_K3S_EXEC='--etcd-snapshot-schedule-cron *&nbsp;*/5&nbsp;*&nbsp;*&nbsp;*' \
  10.     sh -

4. K3S 集群升级

手动升级 + 自动升级

当升级 K3s 时,K3s 服务会重启或停止,但 K3s 容器会继续运行。要停止所有的 K3s 容器并重置容器的状态,可以使用  k3s-killall.sh 脚本。killall 脚本清理容器、K3s 目录和网络组件,同时也删除了 iptables 链和所有相关规则。集群数据不会被删除。

  • [1] 手动升级 - 使用安装脚本升级 K3s

你可以通过使用安装脚本升级 K3s,或者手动安装所需版本的二进制文件。

  1. # 升级到最新stable版本
  2. $ curl -sfL https://get.k3s.io | sh -
  3. # 升级到latest版本
  4. $ curl -sfL https://get.k3s.io | INSTALL_K3S_CHANNEL=latest sh -
  5. # 升级到v1.20的最新版本
  6. $ curl -sfL https://get.k3s.io | INSTALL_K3S_CHANNEL="v1.20" sh -
  7. # 升级到指定版本
  8. $ curl -sfL https://get.k3s.io | INSTALL_K3S_VERSION=vX.Y.Z-rc1 sh -
  • [2] 手动升级 - 使用二进制文件手动升级 K3s

你可以通过使用安装脚本升级 K3s,或者手动安装所需版本的二进制文件。

  1. # 从发布下载所需版本的K3s二进制文件
  2. https://github.com/rancher/k3s/releases
  3. # 将下载的二进制文件复制到/usr/local/bin/k3s
  4. $ mv ./k3s /usr/local/bin/k3s
  5. # 停止旧的K3s二进制文件
  6. $ curl -sfL https://get.k3s.io | INSTALL_K3S_CHANNEL="v1.20" sh -
  7. # 启动新的K3s二进制文件
  8. $ curl -sfL https://get.k3s.io | INSTALL_K3S_VERSION=vX.Y.Z-rc1 sh -

你可以使用 Ranchersystem-upgrad-controller 来管理 K3s 集群升级。这是一种 Kubernetes 原生的集群升级方法。它利用自定义资源定义(CRD)、计划和控制器,根据配置的计划安排升级。

控制器通过监控计划和选择要在其上运行升级 job 的节点来调度升级,计划通过标签选择器定义哪些节点应该升级。当一个 job 成功运行完成后,控制器会给它运行的节点打上相应的标签。

  • [3] 自动升级 - 使用二进制文件手动升级 K3s

    • k3s-upgrade

    • system-upgrade-controller

  1. # 将system-upgrade-controller安装到您的集群中
  2. $ kubectl apply -f https://github.com/rancher/system-upgrade-controller/releases/download/v0.6.2/system-upgrade-controller.yaml
  1. # 配置计划
  2. # 建议您最少创建两个计划
  3. # 升级server节点的计划和升级agent节点的计划
  4. # Server plan
  5. apiVersion: upgrade.cattle.io/v1
  6. kind: Plan
  7. metadata:
  8.   name: server-plan
  9.   namespace: system-upgrade
  10. spec:
  11.   concurrency: 1
  12.   cordon: true
  13.   nodeSelector:
  14.     matchExpressions:
  15.     - key: node-role.kubernetes.io/master # 选择主节点
  16.       operator: In
  17.       values:
  18.       - "true"
  19.   serviceAccountName: system-upgrade
  20.   upgrade:
  21.     image: rancher/k3s-upgrade
  22.   version: v1.20.4+k3s1
  23. # Agent plan
  24. apiVersion: upgrade.cattle.io/v1
  25. kind: Plan
  26. metadata:
  27.   name: agent-plan
  28.   namespace: system-upgrade
  29. spec:
  30.   concurrency: 1
  31.   cordon: true
  32.   nodeSelector:
  33.     matchExpressions:
  34.     - key: node-role.kubernetes.io/master # 选择工作节点
  35.       operator: DoesNotExist
  36.   prepare:
  37.     args:
  38.     - prepare
  39.     - server-plan
  40.     image: rancher/k3s-upgrade
  41.   serviceAccountName: system-upgrade
  42.   upgrade:
  43.     image: rancher/k3s-upgrade
  44.   version: v1.20.4+k3s1
  1. # 自动升级到最新版本(不指定版本)
  2. apiVersion: upgrade.cattle.io/v1
  3. kind: Plan
  4. ...
  5. spec:
  6.   ...
  7.   upgrade:
  8.     image: rancher/k3s-upgrade
  9.   channel: https://update.k3s.io/v1-release/channels/stable
9569377e3ebcf4443436810c4b88cb0b.png
K3S集群升级

5. K3S 备份恢复

SQLite + etcd + 外部数据存储

  • [1] 使用嵌入式 SQLite 数据存储进行备份和恢复

  1. # 方式1:备份/恢复数据目录
  2. # 备份
  3. $ cp -rf /var/lib/rancher/k3s/server/db /opt/db
  4. # 恢复
  5. $ systemctl stop k3s
  6. $ rm -rf /var/lib/rancher/k3s/server/db
  7. $ cp -rf /opt/db /var/lib/rancher/k3s/server/db
  8. $ systemctl start k3s
  1. # 方式2:通过 SQLite cli
  2. # 备份
  3. sqlite3 /var/lib/rancher/k3s/server/db/state.db
  4. SQLite version 3.22.0 2018-01-22 18:45:57
  5. Enter ".help" for usage hints.
  6. sqlite> .backup "/opt/kine.db"
  7. sqlite> .exit
  8. # 恢复
  9. $ sudo systemctl stop k3s
  10. sqlite3 /var/lib/rancher/k3s/server/db/state.db
  11. SQLite version 3.22.0 2018-01-22 18:45:57
  12. Enter ".help" for usage hints.
  13. sqlite> .restore '/opt/kine.db'
  14. sqlite> .exit
  15. $ sudo systemctl start k3s

当使用外部数据存储时,备份和恢复操作是在 K3s 之外处理的。数据库管理员需要对外部数据库进行备份,或者从快照或转储中进行恢复。我们建议将数据库配置为执行定期快照。

  • [2] 使用外部数据存储进行备份和恢复

  1. # 备份
  2. $ mysqldump -uroot -p --all-databases --master-data > k3s-dbdump.db
  3. # 恢复
  4. $ systemctl stop k3s
  5. $ mysql -uroot -p  < k3s-dbdump.db
  6. $ systemctl start k3s
  • [3] 使用嵌入式 etcd 数据存储进行备份和恢复

  1. # 创建快照(K3s默认启用快照)
  2. # 快照目录默认: /var/lib/rancher/k3s/server/db/snapshots
  3. # 要配置快照间隔或保留的快照数量
  4. --etcd-disable-snapshots       禁用自动etcd快照
  5. --etcd-snapshot-schedule-cron  定时快照的时间点;认值为每12小时触发一次
  6. --etcd-snapshot-retention      保留的快照数量;默认值为5
  7. --etcd-snapshot-dir            保存数据库快照的目录路径
  8. --cluster-reset                忘记所有的对等体;成为新集群的唯一成员
  9. --cluster-reset-restore-path   要恢复的快照文件的路径

K3s 从备份中恢复时,旧的数据目录将被移动到/var/lib/rancher/k3s/server/db/etcd-old/。然后 K3s 会尝试通过创建一个新的数据目录来恢复快照,然后从一个带有一个 etcd 成员的新 K3s 集群启动 etcd

  1. # 从快照恢复集群
  2. # 使用--cluster-reset选项运行K3s
  3. # 同时给出--cluster-reset-restore-path
  4. $ ./k3s server \
  5.     --cluster-reset \
  6.     --cluster-reset-restore-path=<PATH-TO-SNAPSHOT>

6. K3S 卷和存储

介绍了如何通过 local storage provider 或 Longhorn 来设置持久存储。

当部署一个需要保留数据的应用程序时,你需要创建持久存储。持久存储允许您从运行应用程序的 pod 外部存储应用程序数据。即使应用程序的 pod 发生故障,这种存储方式也可以使您维护应用程序数据。

  • [1] 设置 Local Storage Provider 支持

K3s 自带 RancherLocal Path Provisioner(LPP),这使得能够使用各自节点上的本地存储来开箱即用地创建 pvc。根据用户配置,LPP 将自动在节点上创建基于 hostPath 的持久卷。它利用了 K8sLocal Persistent Volume 特性引入的特性,但它比 K8s 中内置的  local pv 特性更简单的解决方案。

  1. # pvc.yaml
  2. apiVersion: v1
  3. kind: PersistentVolumeClaim
  4. metadata:
  5.   name: local-path-pvc
  6.   namespace: default
  7. spec:
  8.   accessModes:
  9.     - ReadWriteOnce
  10.   storageClassName: local-path
  11.   resources:
  12.     requests:
  13.       storage: 2Gi
  14. # pod.yaml
  15. apiVersion: v1
  16. kind: Pod
  17. metadata:
  18.   name: volume-test
  19.   namespace: default
  20. spec:
  21.   containers:
  22.   - name: volume-test
  23.     image: nginx:stable-alpine
  24.     imagePullPolicy: IfNotPresent
  25.     volumeMounts:
  26.     - name: volv
  27.       mountPath: /data
  28.     ports:
  29.     - containerPort: 80
  30.   volumes:
  31.   - name: volv
  32.     persistentVolumeClaim:
  33.       claimName: local-path-pvc
  1. # 应用yaml服务
  2. $ kubectl create -f pvc.yaml pod.yaml
  3. # 确认PV和PVC已创建
  4. $ kubectl get pv
  5. $ kubectl get pvc
  • [2] 设置 Longhorn 支持

K3s 支持 Longhorn(是 K8s 的一个开源分布式块存储系统)。

  1. # 安装Longhorn
  2. # 将被安装在命名空间longhorn-system中
  3. $ kubectl apply -f https://raw.githubusercontent.com/longhorn/longhorn/master/deploy/longhorn.yaml
  4. # pvc.yaml
  5. apiVersion: v1
  6. kind: PersistentVolumeClaim
  7. metadata:
  8.   name: longhorn-volv-pvc
  9. spec:
  10.   accessModes:
  11.     - ReadWriteOnce
  12.   storageClassName: longhorn
  13.   resources:
  14.     requests:
  15.       storage: 2Gi
  16. # pod.yaml
  17. apiVersion: v1
  18. kind: Pod
  19. metadata:
  20.   name: volume-test
  21.   namespace: default
  22. spec:
  23.   containers:
  24.   - name: volume-test
  25.     image: nginx:stable-alpine
  26.     imagePullPolicy: IfNotPresent
  27.     volumeMounts:
  28.     - name: volv
  29.       mountPath: /data
  30.     ports:
  31.     - containerPort: 80
  32.   volumes:
  33.   - name: volv
  34.     persistentVolumeClaim:
  35.       claimName: longhorn-volv-pvc
  1. # 应用yaml服务
  2. $ kubectl create -f pvc.yaml pod.yaml
  3. # 确认PV和PVC已创建
  4. $ kubectl get pv
  5. $ kubectl get pvc

7. K3S 网络相关

简单介绍下 K3s 相关的网络配置组件!

  • CoreDNS

CoreDNS 是在 agent 节点启动时部署的。要禁用,请在每台服务器上运行 --disable coredns 选项。如果你不安装 CoreDNS,你将需要自己安装一个集群 DNS 提供商。

  1. # 如何修改coredns参数
  2. # /var/lib/rancher/k3s/server/manifests/coredns.yaml
  3. # 该文件重启K3s服务的话会导致coredns配置重新初始化
  4. 1.将coredns.yaml保存到其他目录
  5. 2.通过 --disable coredns 禁用coredns
  6. 3.复制coredns.yaml到/var/lib/rancher/k3s/server/manifests/目录并修改参数
  • Traefik Ingress Controller

启动 server 时,默认情况下会部署 Traefik,对该文件的任何修改都会以类似 kubectl apply 的方式自动部署到 Kubernetes 中,将使用主机上的 80443 端口。

  1. # 操作和上面基本是一致的
  2. # 请使用 --disable traefik 选项启动每个server
  3. # /var/lib/rancher/k3s/server/manifests/traefik.yaml
  1. # 如何启用 treafik2 dashboard
  2. # http://traefik.example.com/dashboard
  3. # Note: in a kubernetes secret the string (e.g. generated by htpasswd) must be base64-encoded first.
  4. # To create an encoded user:password pair, the following command can be used:
  5. # htpasswd -nb admin admin | openssl base64
  6. apiVersion: v1
  7. kind: Secret
  8. metadata:
  9.   name: authsecret
  10.   namespace: default
  11. data:
  12.   users: |2
  13.     YWRtaW46JGFwcjEkLkUweHd1Z0EkUjBmLi85WndJNXZWRFMyR2F2LmtELwoK
  14. ---
  15. apiVersion: traefik.containo.us/v1alpha1
  16. kind: IngressRoute
  17. metadata:
  18.   name: traefik-dashboard
  19. spec:
  20.   routes:
  21.     - match: Host(`traefik.example.com`) && (PathPrefix(`/api`) || PathPrefix(`/dashboard`))
  22.       kind: Rule
  23.       services:
  24.         - name: api@internal
  25.           kind: TraefikService
  26.       middlewares:
  27.         - name: auth
  28. ---
  29. apiVersion: traefik.containo.us/v1alpha1
  30. kind: Middleware
  31. metadata:
  32.   name: auth
  33. spec:
  34.   basicAuth:
  35.     secret: authsecret # Kubernetes secret named "secretName"
  • Service Load Balancer

K3s 提供了一个名为 Klipper Load Balancer 的负载均衡器,它可以使用可用的主机端口。允许创建 LoadBalancer 类型的 Service,但不包括 LB 的实现。某些 LB 服务需要云提供商,例如 Amazon EC2。相比之下,K3s service LB 使得可以在没有云提供商的情况下使用 LB 服务。

8. K3S 与 Helm

HelmKubernetes 的包管理工具。Helm ChartKubernetes YAML 清单文件提供了模板化语法,可以通过 Helm 安装对应的 chartK3s 不需要任何特殊的配置就可以使用 Helm 命令行工具。

  • 自动部署 Helm charts

/var/lib/rancher/k3s/server/manifests 中找到的任何 Kubernetes 清单将以类似 kubectl apply 的方式自动部署到 K3s。以这种方式部署的 manifests 是作为 AddOn 自定义资源来管理的。你会发现打包组件的 AddOns,如 CoreDNSLocal-Storage 等。AddOns 是由部署控制器自动创建的,并根据它们在 manifests 目录下的文件名命名。

  1. # 查看运行AddOn资源
  2. $ kubectl get addon -A
  3. # 也可以将Helm-Chart作为AddOns部署
  4. https://github.com/rancher/helm-controller/
  • 使用 Helm CRD

HelmChart CRD 捕获了大多数你通常会传递给 helm 命令行工具的选项。下面是一个例子,说明如何从默认的 Chart 资源库中部署 Grafana,覆盖一些默认的 Chart 值。请注意,HelmChart 资源本身在 kube-system 命名空间,但 Chart 资源将被部署到 monitoring 命名空间。

  1. apiVersion: helm.cattle.io/v1
  2. kind: HelmChart
  3. metadata:
  4.   name: grafana
  5.   namespace: kube-system
  6. spec:
  7.   chart: stable/grafana
  8.   targetNamespace: monitoring
  9.   set:
  10.     adminPassword: "NotVerySafePassword"
  11.   valuesContent: |-
  12.     image:
  13.       tag: master
  14.     env:
  15.       GF_EXPLORE_ENABLED: true
  16.     adminUser: admin
  17.     sidecar:
  18.       datasources:
  19.         enabled: true

9. K3S 高级选项

包含高级选项和配置

  • 证书轮换

默认情况下,K3s 的证书在 12 个月内过期。如果证书已经过期或剩余的时间不足 90 天,则在 K3s 重启时轮换证书。

  1. # 查询K3s证书过期时间
  2. for i in `ls /var/lib/rancher/k3s/server/tls/*.crt`; \
  3.   do \
  4.     echo $i;\
  5.     openssl x509 -enddate -noout -in $i; \
  6.   done
  7. # 修改系统时间为证书过期前90天或证书过期后
  8. $ timedatectl set-ntp no
  9. $ date -s 20220807
  10. # 重启K3s服务
  11. $ service k3s restart
  • Red Hat 和 CentOS 的额外准备

建议运行以下命令,关闭 firewalld 防火墙。

$ sudo systemctl disable firewalld --now

10. 参考链接

送人玫瑰,手有余香!

  • [1] 文档教程

    • K3s 中文文档 - 国外

    • K3s 中文文档 - 国内

    • K3s 国内镜像站 - 加速

    • K3s 系列教程 - 官方制作

  • [2] 代码地址

    • K3s 仓库地址 - Github

  • [3] 周边项目

    • K3s 周边项目 - k3os

     完全基于 K8S 管理的轻量级操作系统

  • K3s 周边项目 - autok3s

    用于简化 K3s 集群部署和管理的轻量级工具

    即在阿里云和 aws 等云服务器上面部署 k3s

  • K3s 周边项目 - k3d

    可以在 k3d 创建容器化的 k3s 集群

    可以使用容器在单台计算机上启动多节点 k3s 集群

  • K3s 周边项目 - harvester

    基于 K8S 构建的开源超融合基础架构(HCI)软件

    旨在替换 vSphere 和 Nutanix 的开源替代方案

  • K3s 周边项目 - octopus

    主要用于边缘计算相关

    用于 K8S 和 k3s 的轻量级云原生设备管理系统

    集群可以将边缘设备作为自定义 k8s 资源进行管理

本文转载自:「 Escape 的博客 」,原文:https://url.hi-linux.com/ytP71 ,版权归原作者所有。欢迎投稿,投稿邮箱: editor@hi-linux.com。

f202f9ad864323dfd0baa316ca487e39.gif

最近,我们建立了一个技术交流微信群。目前群里已加入了不少行业内的大神,有兴趣的同学可以加入和我们一起交流技术,在 「奇妙的 Linux 世界」 公众号直接回复 「加群」 邀请你入群。

43a0c321c48a8142a4e8b2ed9d9a490f.png

你可能还喜欢

点击下方图片即可阅读

234a289be9c6ca6ecf8e2a54fb4b74f7.png

超赞,又一 Markdown 神器!可直接画思维导图,还支持 VSCode 和 Vim

c6b7ebeb9b545239ca9708a6c5965ae7.png
点击上方图片,『美团|饿了么』外卖红包天天免费领

54ee0e4f2f2c772249aeb1be5ced66b9.png

更多有趣的互联网新鲜事,关注「奇妙的互联网」视频号全了解!

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小蓝xlanll/article/detail/204452
推荐阅读
相关标签
  

闽ICP备14008679号