当前位置:   article > 正文

Kubeadm快速部署k8s_k8s 1.20.10 对的flannel.yaml 文件

k8s 1.20.10 对的flannel.yaml 文件

目录

实验准备

一、环境准备

1.1 所有节点,关闭防火墙规则,关闭selinux,关闭swap交换

1.2 修改主机名

1.3 所有节点修改hosts文件

1.4 调整内核参数

二、所有节点安装docker

三、 所有节点安装kubeadm,kubelet和kubectl

3.1 定义kubernetes源 

3.2 开机自启kubelet

四、 部署K8S集群

4.1 查看初始化需要的镜像

4.2 在 master 节点上传 v1.20.11.zip 压缩包至 /opt 目录

4.3 复制镜像和脚本到 node 节点,并在 node 节点上执行脚本加载镜像文件

4.4 初始化kubeadm

4.5 末尾再添加以下内容

4.6 查看 kubeadm-init 日志

4.7 kubernetes配置文件目录

4.8 存放ca等证书和密码的目录

4.9 设定kubectl

4.10 如果 kubectl get cs 发现集群不健康,更改以下两个文件

4.11 所有节点部署网络插件flannel

4.12 在master节点查看节点状态

4.13 测试 pod 资源创建

4.14 暴露端口提供服务

4.15 测试访问

4.16 扩展3个副本

五、部署 Dashboard 

5.1 在 master01 节点上操作

六、安装Harbor私有仓库

6.1 修改主机名

6.2 所有节点加上主机名映射

6.3 安装 docker

6.4 安装 Harbor

6.5 生成证书

6.6 生成证书签名请求文件

6.7 备份私钥

6.8 清除私钥密码

6.9 签名证书

6.10 在一个node节点上登录harbor

6.11 上传镜像

6.13 在master节点上删除之前创建的nginx资源

七、内核参数优化方案


实验准备

master(2C/4G,cpu核心数要求大于2)    192.168.80.10docker、kubeadm、kubelet、kubectl、flannel
node01(2C/2G)192.168.80.30docker、kubeadm、kubelet、kubectl、flannel
node02(2C/2G)192.168.80.40  docker、kubeadm、kubelet、kubectl、flannel
Harbor节点(hub.kgc.com)192.168.80.70docker、docker-compose、harbor-offline-v1.2.2

实验步骤:

1、在所有节点上安装Docker和kubeadm
2、部署Kubernetes Master
3、部署容器网络插件
4、部署 Kubernetes Node,将节点加入Kubernetes集群中
5、部署 Dashboard Web 页面,可视化查看Kubernetes资源
6、部署Harbor 私有仓库,存放镜像资源
 

一、环境准备

1.1 所有节点,关闭防火墙规则,关闭selinux,关闭swap交换

  1. systemctl stop firewalld
  2. systemctl disable firewalld
  3. setenforce 0
  4. iptables -F && iptables -t nat -F && iptables -t mangle -F && iptables -X
  5. swapoff -a #交换分区必须要关闭
  6. sed -ri 's/.*swap.*/#&/' /etc/fstab #永久关闭swap分区,&符号在sed命令中代表上次匹配的结果
  7. #加载 ip_vs 模块
  8. for i in $(ls /usr/lib/modules/$(uname -r)/kernel/net/netfilter/ipvs|grep -o "^[^.]*");do echo $i; /sbin/modinfo -F filename $i >/dev/null 2>&1 && /sbin/modprobe $i;done

1.2 修改主机名

  1. hostnamectl set-hostname master01
  2. hostnamectl set-hostname node01
  3. hostnamectl set-hostname node02

1.3 所有节点修改hosts文件

  1. vim /etc/hosts
  2. 192.168.80.10 master01
  3. 192.168.80.30 node01
  4. 192.168.80.40 node02
  5. 用这个快
  6. cat >> /etc/hosts << EOF
  7. 192.168.80.10 master01
  8. 192.168.80.30 node01
  9. 192.168.80.40 node02
  10. EOF

1.4 调整内核参数

  1. cat > /etc/sysctl.d/kubernetes.conf << EOF
  2. #开启网桥模式,可将网桥的流量传递给iptables链
  3. net.bridge.bridge-nf-call-ip6tables=1
  4. net.bridge.bridge-nf-call-iptables=1
  5. #关闭ipv6协议
  6. net.ipv6.conf.all.disable_ipv6=1
  7. net.ipv4.ip_forward=1
  8. EOF
  9. 参数生效
  10. sysctl --system

二、所有节点安装docker

  1. yum install -y yum-utils device-mapper-persistent-data lvm2
  2. yum-config-manager --add-repo https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo
  3. yum install -y docker-ce docker-ce-cli containerd.io
  4. mkdir /etc/docker
  5. cat > /etc/docker/daemon.json <<EOF
  6. {
  7. "registry-mirrors": ["https://6ijb8ubo.mirror.aliyuncs.com"],
  8. "exec-opts": ["native.cgroupdriver=systemd"],
  9. "log-driver": "json-file",
  10. "log-opts": {
  11. "max-size": "100m"
  12. }
  13. }
  14. EOF
  15. #使用Systemd管理的Cgroup来进行资源控制与管理,因为相对Cgroupfs而言,Systemd限制CPU、内存等资源更加简单和成熟稳定。
  16. #日志使用json-file格式类型存储,大小为100M,保存在/var/log/containers目录下,方便ELK等日志系统收集和管理日志。

 

三、 所有节点安装kubeadm,kubelet和kubectl

3.1 定义kubernetes源 

  1. cat > /etc/yum.repos.d/kubernetes.repo << EOF
  2. [kubernetes]
  3. name=Kubernetes
  4. baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64
  5. enabled=1
  6. gpgcheck=0
  7. repo_gpgcheck=0
  8. gpgkey=https://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg https://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg
  9. EOF

yum install -y kubelet-1.20.11 kubeadm-1.20.11 kubectl-1.20.11

3.2 开机自启kubelet

  1. systemctl enable kubelet.service
  2. #K8S通过kubeadm安装出来以后都是以Pod方式存在,即底层是以容器方式运行,所以kubelet必须设置开机自启

四、 部署K8S集群

4.1 查看初始化需要的镜像

kubeadm config images list

4.2 在 master 节点上传 v1.20.11.zip 压缩包至 /opt 目录

  1. unzip v1.20.11.zip
  2. cd /opt/v1.20.11
  3. for i in $(ls *.tar); do docker load -i $i; done

4.3 复制镜像和脚本到 node 节点,并在 node 节点上执行脚本加载镜像文件

  1. scp -r /opt/v1.20.11 root@node01:/opt
  2. scp -r /opt/v1.20.11 root@node02:/opt

4.4 初始化kubeadm

  1. 方法一:
  2. kubeadm config print init-defaults > /opt/kubeadm-config.yaml
  3. cd /opt/
  4. vim kubeadm-config.yaml
  5. ......
  6. 11 localAPIEndpoint:
  7. 12 advertiseAddress: 192.168.80.10 #指定master节点的IP地址
  8. 13 bindPort: 6443
  9. ......
  10. 34 kubernetesVersion: v1.20.11 #指定kubernetes版本号
  11. 35 networking:
  12. 36 dnsDomain: cluster.local
  13. 37 podSubnet: "10.244.0.0/16" #指定pod网段,10.244.0.0/16用于匹配flannel默认网段
  14. 38 serviceSubnet: 10.96.0.0/16 #指定service网段
  15. 39 scheduler: {}

4.5 末尾再添加以下内容

  1. apiVersion: kubeproxy.config.k8s.io/v1alpha1
  2. kind: KubeProxyConfiguration
  3. mode: ipvs #把默认的kube-proxy调度方式改为ipvs模式
  4. kubeadm init --config=kubeadm-config.yaml --upload-certs | tee kubeadm-init.log
  5. #--experimental-upload-certs 参数可以在后续执行加入节点时自动分发证书文件,k8sV1.16版本开始替换为 --upload-certs
  6. #tee kubeadm-init.log 用以输出日志

 

4.6 查看 kubeadm-init 日志

  1. less kubeadm-init.log
  2. 按q退出

4.7 kubernetes配置文件目录

ls /etc/kubernetes/

4.8 存放ca等证书和密码的目录

ls /etc/kubernetes/pki	

  1. 方法二:
  2. kubeadm init \
  3. --apiserver-advertise-address=192.168.80.10 \
  4. --image-repository registry.aliyuncs.com/google_containers \
  5. --kubernetes-version=v1.20.11 \
  6. --service-cidr=10.96.0.0/16 \
  7. --pod-network-cidr=10.244.0.0/16 \
  8. --token-ttl=0
  9. 初始化集群需使用kubeadm init命令,可以指定具体参数初始化,也可以指定配置文件初始化。
  10. 可选参数:
  11. --apiserver-advertise-address:apiserver通告给其他组件的IP地址,一般应该为Master节点的用于集群内部通信的IP地址,0.0.0.0表示节点上所有可用地址
  12. --apiserver-bind-port:apiserver的监听端口,默认是6443
  13. --cert-dir:通讯的ssl证书文件,默认/etc/kubernetes/pki
  14. --control-plane-endpoint:控制台平面的共享终端,可以是负载均衡的ip地址或者dns域名,高可用集群时需要添加
  15. --image-repository:拉取镜像的镜像仓库,默认是k8s.gcr.io
  16. --kubernetes-version:指定kubernetes版本
  17. --pod-network-cidr:pod资源的网段,需与pod网络插件的值设置一致。通常,Flannel网络插件的默认为10.244.0.0/16,Calico插件的默认值为192.168.0.0/16
  18. --service-cidr:service资源的网段
  19. --service-dns-domain:service全域名的后缀,默认是cluster.local
  20. 方法二初始化后需要修改 kube-proxy 的 configmap,开启 ipvs
  21. kubectl edit cm kube-proxy -n=kube-system
  22. 修改mode: ipvs
  23. 提示:
  24. ......
  25. Your Kubernetes control-plane has initialized successfully!
  26. To start using your cluster, you need to run the following as a regular user:
  27. mkdir -p $HOME/.kube
  28. sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
  29. sudo chown $(id -u):$(id -g) $HOME/.kube/config
  30. You should now deploy a pod network to the cluster.
  31. Run "kubectl apply -f [podnetwork].yaml" with one of the options listed at:
  32. https://kubernetes.io/docs/concepts/cluster-administration/addons/
  33. Then you can join any number of worker nodes by running the following on each as root:
  34. kubeadm join 192.168.80.10:6443 --token rc0kfs.a1sfe3gl4dvopck5 \
  35. --discovery-token-ca-cert-hash sha256:864fe553c812df2af262b406b707db68b0fd450dc08b34efb73dd5a4771d37a2

4.9 设定kubectl

  1. kubectl需经由API server认证及授权后方能执行相应的管理操作,kubeadm 部署的集群为其生成了一个具有管理员权限的认证配置文件 /etc/kubernetes/admin.conf,它可由 kubectl 通过默认的 “$HOME/.kube/config” 的路径进行加载。
  2. mkdir -p $HOME/.kube
  3. cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
  4. chown $(id -u):$(id -g) $HOME/.kube/config

4.10 如果 kubectl get cs 发现集群不健康,更改以下两个文件

  1. vim /etc/kubernetes/manifests/kube-scheduler.yaml
  2. vim /etc/kubernetes/manifests/kube-controller-manager.yaml
  3. # 修改如下内容
  4. 把--bind-address=127.0.0.1变成--bind-address=192.168.80.10 #修改成k8s的控制节点master01的ip
  5. 把httpGet:字段下的hosts由127.0.0.1变成192.168.80.10(有两处)
  6. #- --port=0 # 搜索port=0,把这一行注释掉
  7. systemctl restart kubelet

4.11 所有节点部署网络插件flannel

  1. 方法一:
  2. //所有节点上传flannel镜像 flannel.tar 到 /opt 目录,master节点上传 kube-flannel.yml 文件
  3. cd /opt
  4. docker load < flannel.tar
  5. //在 master 节点创建 flannel 资源
  6. kubectl apply -f kube-flannel.yml

  1. 方法二:
  2. kubectl apply -f https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml
  3. //在 node 节点上执行 kubeadm join 命令加入群集
  4. [root@node01 opt]# kubeadm join 192.168.80.10:6443 --token abcdef.0123456789abcdef \
  5. > --discovery-token-ca-cert-hash sha256:0d33e878f9c06d83ae88b49969d0d47e2260ab60eca163a578b6f8eaa32ea343

4.12 在master节点查看节点状态

  1. kubectl get nodes
  2. kubectl get pods -n kube-system

4.13 测试 pod 资源创建

  1. kubectl create deployment nginx-dayu --image=nginx
  2. kubectl get pods -o wide
  3. NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES
  4. nginx-554b9c67f9-zr2xs 1/1 Running 0 14m 10.244.1.2 node01 <none> <none>

4.14 暴露端口提供服务

  1. kubectl expose deployment nginx --port=80 --type=NodePort
  2. kubectl get svc
  3. NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE
  4. kubernetes ClusterIP 10.96.0.1 <none> 443/TCP 25h
  5. nginx NodePort 10.96.15.132 <none> 80:32698/TCP 4s

4.15 测试访问

curl http://node01:31856

4.16 扩展3个副本

  1. kubectl scale deployment nginx --replicas=3
  2. kubectl get pods -o wide

五、部署 Dashboard 

5.1 在 master01 节点上操作

  1. #上传 recommended.yaml 文件到 /opt/k8s 目录中
  2. cd /opt/k8s
  3. vim recommended.yaml
  4. #默认Dashboard只能集群内部访问,修改Service为NodePort类型,暴露到外部:
  5. kind: Service
  6. apiVersion: v1
  7. metadata:
  8. labels:
  9. k8s-app: kubernetes-dashboard
  10. name: kubernetes-dashboard
  11. namespace: kubernetes-dashboard
  12. spec:
  13. ports:
  14. - port: 443
  15. targetPort: 8443
  16. nodePort: 30001 #添加
  17. type: NodePort #添加
  18. selector:
  19. k8s-app: kubernetes-dashboard
  20. kubectl apply -f recommended.yaml
  21. #创建service account并绑定默认cluster-admin管理员集群角色
  22. kubectl create serviceaccount dashboard-admin -n kube-system
  23. kubectl create clusterrolebinding dashboard-admin --clusterrole=cluster-admin --serviceaccount=kube-system:dashboard-admin
  24. kubectl describe secrets -n kube-system $(kubectl -n kube-system get secret | awk '/dashboard-admin/{print $1}')
  25. #使用输出的token登录Dashboard
  26. https://NodeIP:30001

 

 

六、安装Harbor私有仓库

6.1 修改主机名

  1. 新开一台虚拟机ip 192.168.80.70
  2. hostnamectl set-hostname hub.dayu.com

6.2 所有节点加上主机名映射

  1. #所有节点
  2. echo '192.168.80.70 hub.dayu.com' >> /etc/hosts

6.3 安装 docker

  1. yum install -y yum-utils device-mapper-persistent-data lvm2
  2. yum-config-manager --add-repo https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo
  3. yum install -y docker-ce docker-ce-cli containerd.io
  4. mkdir /etc/docker
  5. cat > /etc/docker/daemon.json <<EOF
  6. {
  7. "registry-mirrors": ["https://6ijb8ubo.mirror.aliyuncs.com"],
  8. "exec-opts": ["native.cgroupdriver=systemd"],
  9. "log-driver": "json-file",
  10. "log-opts": {
  11. "max-size": "100m"
  12. },
  13. "insecure-registries": ["https://hub.dayu.com"]
  14. }
  15. EOF
  16. systemctl start docker
  17. systemctl enable docker

 

6.4 安装 Harbor

  1. //上传 harbor-offline-installer-v1.2.2.tgz 和 docker-compose 文件到 /opt 目录
  2. cd /opt
  3. cp docker-compose /usr/local/bin/
  4. chmod +x /usr/local/bin/docker-compose
  5. tar zxvf harbor-offline-installer-v1.2.2.tgz
  6. cd harbor/
  7. vim harbor.cfg
  8. 5 hostname = hub.kgc.com
  9. 9 ui_url_protocol = https
  10. 24 ssl_cert = /data/cert/server.crt
  11. 25 ssl_cert_key = /data/cert/server.key
  12. 59 harbor_admin_password = Harbor12345

6.5 生成证书

  1. mkdir -p /data/cert
  2. cd /data/cert
  3. #生成私钥
  4. openssl genrsa -des3 -out server.key 2048
  5. 输入两遍密码:123456

6.6 生成证书签名请求文件

  1. openssl req -new -key server.key -out server.csr
  2. 输入私钥密码:123456
  3. 输入国家名:CN
  4. 输入省名:BJ
  5. 输入市名:BJ
  6. 输入组织名:KGC
  7. 输入机构名:KGC
  8. 输入域名:hub.dayu.com
  9. 输入管理员邮箱:yuzhigenp@foxmail.com
  10. 其它全部直接回车

6.7 备份私钥

cp server.key server.key.org

6.8 清除私钥密码

  1. openssl rsa -in server.key.org -out server.key
  2. 输入私钥密码:123456

6.9 签名证书

  1. openssl x509 -req -days 1000 -in server.csr -signkey server.key -out server.crt
  2. chmod +x /data/cert/*
  3. cd /opt/harbor/
  4. ./install.sh
  5. 浏览器访问:https://hub.dayu.com
  6. 用户名:admin
  7. 密码:Harbor12345

 

(harbor之前的版本太低了,我在这边装的是2.0版本,安装详情centos7安装harbor2.0

6.10 在一个node节点上登录harbor

docker login -u admin -p Harbor12345 https://hub.dayu.com

6.11 上传镜像

  1. docker tag nginx:latest hub.dayu.com/library/nginx:v1
  2. docker push hub.dayu.com/library/nginx:v1

 

6.13 在master节点上删除之前创建的nginx资源

  1. kubectl delete deployment nginx
  2. kubectl run nginx-deployment --image=hub.dayu.com/library/nginx:v1 --port=80 --replicas=3
  3. kubectl expose deployment nginx-deployment --port=30000 --target-port=80
  4. kubectl get svc,pods
  5. NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE
  6. service/kubernetes ClusterIP 10.96.0.1 <none> 443/TCP 10m
  7. service/nginx-deployment ClusterIP 10.96.222.161 <none> 30000/TCP 3m15s
  8. NAME READY STATUS RESTARTS AGE
  9. pod/nginx-deployment-77bcbfbfdc-bv5bz 1/1 Running 0 16s
  10. pod/nginx-deployment-77bcbfbfdc-fq8wr 1/1 Running 0 16s
  11. pod/nginx-deployment-77bcbfbfdc-xrg45 1/1 Running 0 3m39s
  1. yum install ipvsadm -y
  2. ipvsadm -Ln 
curl 10.96.222.161:30000

  1. kubectl edit svc nginx-deployment
  2. 25 type: NodePort #把调度策略改成NodePort
  3. kubectl get svc
  4. NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE
  5. service/kubernetes ClusterIP 10.96.0.1 <none> 443/TCP 29m
  6. service/nginx-deployment NodePort 10.96.222.161 <none> 30000:32340/TCP 22m

七、内核参数优化方案

  1. cat > /etc/sysctl.d/kubernetes.conf <<EOF
  2. net.bridge.bridge-nf-call-iptables=1
  3. net.bridge.bridge-nf-call-ip6tables=1
  4. net.ipv4.ip_forward=1
  5. net.ipv4.tcp_tw_recycle=0
  6. vm.swappiness=0 #禁止使用 swap 空间,只有当系统内存不足(OOM)时才允许使用它
  7. vm.overcommit_memory=1 #不检查物理内存是否够用
  8. vm.panic_on_oom=0 #开启 OOM
  9. fs.inotify.max_user_instances=8192
  10. fs.inotify.max_user_watches=1048576
  11. fs.file-max=52706963 #指定最大文件句柄数
  12. fs.nr_open=52706963 #仅4.4以上版本支持
  13. net.ipv6.conf.all.disable_ipv6=1
  14. net.netfilter.nf_conntrack_max=2310720
  15. EOF
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/2023面试高手/article/detail/128358
推荐阅读
相关标签
  

闽ICP备14008679号