当前位置:   article > 正文

云原生Java架构实战Kubernetes(k8s)安装介绍及简单使用(一篇就够了)_java新技术 kube

java新技术 kube

中文说明文档

https://www.yuque.com/leifengyang/oncloud/ghnb83

官方文档

https://kubernetes.io/zh/docs/setup/
在这里插入图片描述

集群部署

需要至少两台服务器,每台服务器都需要装上docker

可查看我的另外一篇博客:
Docker原理说明及使用+idea使用docker插件一键部署
在这里插入图片描述

前置环境

一台兼容的 Linux 主机。Kubernetes 项目为基于 Debian 和 Red Hat 的 Linux 发行版以及一些不提供包管理器的发行版提供通用的指令
每台机器 2 GB 或更多的 RAM (如果少于这个数字将会影响你应用的运行内存)
2 CPU 核或更多
集群中的所有机器的网络彼此均能相互连接(公网和内网都可以)
设置防火墙放行规则
节点之中不可以有重复的主机名、MAC 地址或 product_uuid。请参见这里了解更多详细信息。
设置不同hostname
开启机器上的某些端口。请参见这里 了解更多详细信息。
内网互信(设置专有网络vpc)
禁用交换分区。为了保证 kubelet 正常工作,你 必须 禁用交换分区。
永久关闭

所有机器执行以下操作

各个机器设置自己的域名(主机名)
hostnamectl set-hostname xxxx
  • 1

在这里插入图片描述

将 SELinux 设置为 permissive 模式(相当于将其禁用)
临时禁用:sudo setenforce 0
永久禁用:sudo sed -i 's/^SELINUX=enforcing$/SELINUX=permissive/' /etc/selinux/config
  • 1
  • 2
关闭swap
临时关闭Swap分区:swapoff -a  
永久关闭Swap分区:sed -ri 's/.*swap.*/#&/' /etc/fstab
  • 1
  • 2

在这里插入图片描述

允许 iptables 检查桥接流量
cat <<EOF | sudo tee /etc/modules-load.d/k8s.conf
br_netfilter
EOF
  • 1
  • 2
  • 3
cat <<EOF | sudo tee /etc/sysctl.d/k8s.conf
net.bridge.bridge-nf-call-ip6tables = 1
net.bridge.bridge-nf-call-iptables = 1
EOF
  • 1
  • 2
  • 3
  • 4
让以上配置生效
sudo sysctl --system
  • 1

安装kubelet、kubeadm、kubectl

指定kubernetes.repo下载地址以及阿里云镜像

cat <<EOF | sudo tee /etc/yum.repos.d/kubernetes.repo
[kubernetes]
name=Kubernetes
baseurl=http://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64
enabled=1
gpgcheck=0
repo_gpgcheck=0
gpgkey=http://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg
   http://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg
exclude=kubelet kubeadm kubectl
EOF
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11

安装

sudo yum install -y kubelet-1.20.9 kubeadm-1.20.9 kubectl-1.20.9 --disableexcludes=kubernetes
  • 1

启动kubelet

sudo systemctl enable --now kubelet
  • 1

下载各个机器需要的镜像

下载镜像

sudo tee ./images.sh <<-'EOF'
#!/bin/bash
images=(
kube-apiserver:v1.20.9
kube-proxy:v1.20.9
kube-controller-manager:v1.20.9
kube-scheduler:v1.20.9
coredns:1.7.0
etcd:3.4.13-0
pause:3.2
)
for imageName in ${images[@]} ; do
docker pull registry.cn-hangzhou.aliyuncs.com/lfy_k8s_images/$imageName
done
EOF
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15

赋权并启动

chmod +x ./images.sh && ./images.sh
  • 1

在这里插入图片描述

初始化节点

找到需要设置k8s-master的服务器
在这里插入图片描述

所有机器添加master域名映射,以下需要修改为自己的专有vpc
echo "172.16.217.1  cluster-endpoint" >> /etc/hosts
  • 1
如果所有机器上都能 ping cluster-endpoint 就说明kubeadm join成功

在这里插入图片描述

主节点初始化(只在master上运行)
kubeadm init \
--apiserver-advertise-address=172.16.217.1 \
--control-plane-endpoint=cluster-endpoint \
--image-repository registry.cn-hangzhou.aliyuncs.com/lfy_k8s_images \
--kubernetes-version v1.20.9 \
--service-cidr=10.96.0.0/16 \
--pod-network-cidr=192.168.0.0/16
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7

说明:所有网络范围不重叠这里是k8s内部的网段,且不能与服务器设置的专有网络重叠
–service-cidr=10.96.0.0/16
–pod-network-cidr=192.168.0.0/16

下面这里最好全部复制出来,后面有用到
在这里插入图片描述
在这里插入图片描述

查看集群所有节点(在master节点中运行)
kubectl get nodes
  • 1

我们会发现这里显示的是notready 没有部署网络插件
在这里插入图片描述

安装网络组件(在master节点中运行)
curl https://docs.projectcalico.org/manifests/calico.yaml -O
  • 1
根据配置文件,给集群创建资源
kubectl apply -f calico.yaml
  • 1

在这里插入图片描述
注:如果这里在之前主节点初始化时修改了
–pod-network-cidr=192.168.0.0/16
那么就需要你重新修改
在这里插入图片描述

在node机器上运行令牌 (24小时内有效之前保存的)

在这里插入图片描述
如果这个令牌过期或者丢失了那么在master上使用命令重新生成新的令牌

kubeadm token create --print-join-command
  • 1

在这里插入图片描述

查看k8s集群部署了那些应用
kubectl get pods -A  #运行中的应用在docker里面叫容器,在k8s里面叫Pod
kubectl get pods -A -w #实时监控运行状态  -w 监视资源变动信息
watch -n 1 kubectl get pods -A #每秒自动刷新查询状态
  • 1
  • 2
  • 3

在这里插入图片描述

部署dashboard可视化界面(以下所有命令执行均在master节点)

kubernetes官方提供的可视化界面

https://github.com/kubernetes/dashboard

kubectl apply -f https://raw.githubusercontent.com/kubernetes/dashboard/v2.3.1/aio/deploy/recommended.yaml
  • 1

在这里插入图片描述

修改配置dashboard 文件信息
kubectl edit svc kubernetes-dashboard -n kubernetes-dashboard
type: ClusterIP 改为 type: NodePort
  • 1
  • 2

在这里插入图片描述

找到端口,在安全组放行

在这里插入图片描述
访问: https://集群任意IP(master或node):端口
在这里插入图片描述
创建访问权限并通过token访问
准备一个yaml文件; vi dash.yaml
dash.yaml

apiVersion: v1
kind: ServiceAccount
metadata:
  name: admin-user
  namespace: kubernetes-dashboard
---
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRoleBinding
metadata:
  name: admin-user
roleRef:
  apiGroup: rbac.authorization.k8s.io
  kind: ClusterRole
  name: cluster-admin
subjects:
- kind: ServiceAccount
  name: admin-user
  namespace: kubernetes-dashboard
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18

使yaml文件在k8s中生效

kubectl apply -f dash.yaml
  • 1
获取访问令牌(这里一定要注意中括号后面的不要复制了)
kubectl -n kubernetes-dashboard get secret $(kubectl -n kubernetes-dashboard get sa/admin-user -o jsonpath="{.secrets[0].name}") -o go-template="{{.data.token | base64decode}}"
  • 1

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

K8S中的NameSpace

获取k8s的名称空间(NameSpace)

kubectl get namespace 或者 kubectl get ns
  • 1

在这里插入图片描述

获取名称空间(NameSpace)下的应用

kubectl get pod -n NameSpace名称
  • 1

在这里插入图片描述

创建/删除自定义名称空间(NameSpace)

kubectl create ns xxxxx
  • 1

在这里插入图片描述
在这里插入图片描述

kubectl delete ns xxxxx  (删除名称空间会将该空间下的资源连带删除)
  • 1

在这里插入图片描述

Pod

pod:运行中的一组容器,Pod是kubernetes中应用的最小单位.
在这里插入图片描述
查看k8s集群部署了那些应用:

kubectl get pod -A
  • 1

这里的pod 就是指的k8s中的容器

创建容器镜像(默认创建在defaul命名空间中):

kubectl run mynginx --image=nginx
  • 1

mynginx:表示应用名称唯一且不能重复
–image=nginx:–image=镜像名称可以指定版本号如–image=nginx:1.21.0,不指定则表示默认最新版本
在这里插入图片描述
指定命名空间:

kubectl run mynginx --image=nginx -n 自定义命名空间名称
  • 1

在这里插入图片描述

查看名称空间的Pod

kubectl get pod   #默认查看default名称空间的Pod
kubectl get pod -n 指定命名空间  #查看指定名称空间的Pod
  • 1
  • 2

在这里插入图片描述

查看描述信息

kubectl describe pod mynginx(你自己的Pod名字)
  • 1

在这里插入图片描述

删除pod

kubectl delete pod Pod名字
  • 1

在这里插入图片描述
如果删除的不是default空间下的pod 需要加上空间名称删除 如:

kubectl delete pod Pod名字 -n 空间名称
  • 1

查看Pod的运行日志

kubectl logs Pod名字
-n 指定命名空间名
  • 1
  • 2

在这里插入图片描述

每个Pod - k8s都会分配一个ip

kubectl get pod -owide
  • 1

集群中的任意一个机器以及任意的应用都能通过Pod分配的ip来访问这个Pod
在这里插入图片描述
自己下载的镜像分配的ip为192.168.xxx.xxx,这里分配的192.168网段是我们在安装k8s时设置的网段
在这里插入图片描述

以yaml文件的形式创建Pod及镜像

1、结合dashboard可视化面板对pod进行创建

在这里插入图片描述
创建yaml脚本

apiVersion: v1
kind: Pod
metadata:
  labels:
    run: mynginx
  name: mynginx
#  namespace: default
spec:
  containers:
  - image: nginx
    name: mynginx
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11

还可yaml中选择放在哪一个空间下,不需要手动选择空间
在这里插入图片描述
在这里插入图片描述
一个pod容器中可创建多个镜像
在这里插入图片描述
创建yaml脚本

apiVersion: v1
kind: Pod
metadata:
  labels:
    run: myapp
  name: myapp
spec:
  containers:
  - image: nginx
    name: nginx
  - image: tomcat:8.5.68
    name: tomcat
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12

注:这里创建多个镜像时不能创建两个相同port的镜像在同一个端口,比如这里弄两个nginx
在这里插入图片描述
创建完成后这里的pod会分配一个内网ip
集群内访问只需要查询出上方创建的myapp的内网ip

kubectl get pod -n 空间名称 -owide
  • 1

如显示的是192.168.47.12
所有集群内网访问nginx只需要在服务器中
curl 192.168.47.12 (80端口默认)
所有集群内网访问tomcat只需要在服务器中
curl 192.168.47.12:8080
如果在pod内nginx需要访问tomcat那么只需要
127.0.0.1:8080

此时的应用还不能外部访问

2、Linux创建pod容器

首先创建一个yaml文件:

vi xxxx.yaml
  • 1

粘贴yaml脚本并保存

apiVersion: v1
kind: Pod
metadata:
  labels:
    run: myapp
  name: myapp
spec:
  containers:
  - image: nginx
    name: nginx
  - image: tomcat:8.5.68
    name: tomcat
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12

将文件应用到k8s:

Kubectl apply -f xxxx.yaml
  • 1

删除pod:
找到xxxx.yaml位置并执行命令

Kubectl delete -f xxxx.yaml
  • 1

也可使用:kubectl delete pod Pod名字
但是这样xxxx.yaml文件并没有被删除

Deployment

在这里插入图片描述
控制Pod,使Pod拥有多副本,自愈,扩缩容等能力

正常情况下我们使用kubectl命令创建nginx镜像,如果使用

kubectl delete pod Pod名字
  • 1

pod是真正的完整的被删除,如果使用deployment 创建镜像,那么如果删除的话每次删除都会自动在其他集群再次创建一个,自愈能力

deployment创建pod

这里我没有指定命名空间自动创建在default中

kubectl create deployment mytomcat --image=tomcat:8.5.68
  • 1

在这里插入图片描述

删除使用deployment创建的pod
kubectl delete deployment --all
  • 1

-n:如果是非default需要指定命名空间,省略则默认为default空间

创建指定数量的Deployment
kubectl create deployment my-dep --image=nginx --replicas=3
  • 1

在这里插入图片描述
yaml脚本创建

apiVersion: apps/v1
kind: Deployment
metadata:
  labels:
    app: my-dep
  name: my-dep
spec:
  replicas: 3
  selector:
    matchLabels:
      app: my-dep
  template:
    metadata:
      labels:
        app: my-dep
    spec:
      containers:
      - image: nginx
        name: nginx
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
Dashboard可视化界面创建

在这里插入图片描述
在这里插入图片描述

deployment的扩缩容三种方式

前提是容器正常运行才可进行扩缩容操作

1、命令形式

将其扩容/缩容到5个

kubectl scale --replicas=5 deployment/my-dep
  • 1

在这里插入图片描述

2、修改yaml形式
kubectl edit deployment my-dep
  • 1

在这里插入图片描述

3、dashboard可视化界面

在这里插入图片描述
在这里插入图片描述

Deployment自愈&故障转移说明

1、停止镜像运行(自愈)

如果我们的nginx镜像时部署在node1机器上那么我们在node1机器上使用命令

docker ps  #查询所有运行的镜像
docker stop 容器id  #停止当前镜像运行
  • 1
  • 2

停机(停机之后自愈能力是指停机后Deploy会让这个停机的容器又尝试重启)
在这里插入图片描述
在这里插入图片描述

2、服务器关机(故障转移)

服务器关机后大概有5分钟的时间检测,5分钟后会在其他机器上自启
删除pod、容器宕机(现在有master、node1、node2,如果node1机器直接宕机了,经过一段时间,原来在node1上的pod会转移到node2节点上)
在这里插入图片描述

滚动更新(不停机更新)

当kubernetes集群中的某个服务需要升级时,传统的做法是,先将要更新的服务下线,业务停止后再更新版本和配置,然后重新启动并提供服务。如果业务集群规模较大时,这个工作就变成了一个挑战,而且先全部了停止,再逐步升级的方式会导致服务较长时间不可用。kubernetes提供了滚动更新(rolling-update)的方式来解决上述问题。
简单来说,滚动更新就是针对多实例服务的一种不中断服务的更新升级方式。一般情况下,对于多实例服务,滚动更新采用对各个实例逐个进行单独更新而非同一时刻对所有实例进行全部更新的方式。
滚动更新是一次只更新一小部分副本,成功后,再更新更多的副本,最终完成所有副本的更新。滚动更新的最大的好处是零停机,整个更新过程始终有副本在运行,从而保证了业务的连续性。

如需要对某个镜像进行升级那么可以使用命令
如原本的nginx镜像在default命名空间,nginx版本为1.21.0,先需要将版本更改为1.22.1

kubectl set image deployment/my-dep nginx=nginx:1.22.1 --record
  • 1

–record:版本记录
非default命名空间需要加上 -n 空间名

执行命令后我们会发现,k8s会新创建一个nginx镜像等待状态为running然后逐个删除掉之前的镜像,直到deployment创建的所有镜像全部逐个更新

状态

kubectl rollout status deployment/my-dep
  • 1

修改配置文件的方式达到版本更新

kubectl edit deployment/my-dep
  • 1

在这里插入图片描述

版本回退

查看安装的历史版本

kubectl rollout history deployment/my-dep
  • 1

非default空间需要加上 -n空间名称

在这里插入图片描述
查看升级记录的历史详情

kubectl rollout history deployment/my-dep --revision=2
  • 1

如果是安装的记录则 --revision=1

回滚(回到上次)

kubectl rollout undo deployment/my-dep
  • 1

回滚(回到指定版本)

kubectl rollout undo deployment/my-dep --to-revision=2
  • 1

如果是回滚到安装的记录则 --revision=1

除了Deployment,k8s还有 StatefulSet 、DaemonSet 、Job 等 类型资源。我们都称为 工作负载。
有状态应用使用 StatefulSet 部署,无状态应用使用 Deployment 部署
https://kubernetes.io/zh/docs/concepts/workloads/controllers/

Service(集群内访问以及外部访问)

Service:Pod集群的统一访问路口

ClusterIP(集群内部访问)

在这里插入图片描述
将一组 Pods 公开为网络服务的抽象方法。Pod的服务发现和负载均衡

如果default命名空间中使用deplotment创建了3个nginx的副本,这时候每个副本k8s都会生成一个内网ip,如果想访问其中的某一个nginx就需要使用 内网ip:端口号
其中如果有一个pod挂掉了这时候的nginx是访问不了的,这时候想访问另外一个pod就需要更改访问的ip,这里的service就能通过服务发现实现负载均衡

暴露deployment (将一组pod暴露成一个端口)
kubectl expose deployment my-dep --port=8000 --target-port=80 --type=ClusterIP
  • 1

8000:需要对外暴露的统一端口
80:负载均衡中的机器所占用的端口
–type=ClusterIP:可省略,默认 代表集群内可访问的ip

在这里插入图片描述
注:这里节点访问可通过ip:端口,如果是在pod容器内访问可通过域名访问:
域名规则:服务名.空间名.svc:端口 (my-dep.default.svc:8000

查询暴露的service

kubectl get service(svc也可) #默认default命名空间下的service
-A:查询所有的service
  • 1
  • 2

在这里插入图片描述
使用标签检索Pod

查询pod的标签

kubectl get pod --show-labels
  • 1

在这里插入图片描述

kubectl get pod -l app=my-dep
  • 1

-l 标签选择器(多个的话是与逻辑)

NodePort(外网端口访问)

在这里插入图片描述

暴露deployment (将一组pod暴露成一个端口)
kubectl expose deployment my-dep --port=8000 --target-port=80 --type=NodePort
  • 1

my-dep:需要暴露的pod前缀
–port=8000:需要暴露的端口
–target-port=80:负载均衡中的机器所占用的端口

在这里插入图片描述
这里和ClusterIP 创建的service不同会多出来一个port
30948是k8s分配的一个端口(NodePort范围在 30000-32767 之间)30948端口会在每一台集群上都开一个这样的端口(端口需自行前往服务器安全中配置

公网访问ip:集群内任意一台机器公网ip:端口

删除创建的service

kubectl delete svc xxxx(服务名如my-dep)

Ingress

官网地址:https://kubernetes.github.io/ingress-nginx/

就是nginx做的
Service的统一网关入口

安装
wget https://raw.githubusercontent.com/kubernetes/ingress-nginx/controller-v0.47.0/deploy/static/provider/baremetal/deploy.yaml
  • 1
修改镜像
vi deploy.yaml
  • 1
将image的值改为阿里云镜像如下
registry.cn-hangzhou.aliyuncs.com/lfy_k8s_images/ingress-nginx-controller:v0.46.0
  • 1

在这里插入图片描述

将其应用到k8s
kubectl apply -f deploy.yaml
  • 1

在这里插入图片描述
等待他状态全部为Running即可

也可使用命令检查安装的结果

kubectl get pod,svc -n ingress-nginx
  • 1

在这里插入图片描述
这里k8s会自动创建两个NodePort端口,一个为http,一个为https分别配置了端口号,这里的端口号在服务器上的安全组中放行即可在外部访问
http://集群内任何一个服务器公网ip:http端口号
https://集群内任何一个服务器公网ip:https端口号

将service配置到Ingress
配置文件配置
vi xxxx.yaml
  • 1
apiVersion: networking.k8s.io/v1
kind: Ingress  
metadata:
  name: ingress-host-bar
spec:
  ingressClassName: nginx
  rules:
  - host: "hello.atguigu.com"
    http:
      paths:
      - pathType: Prefix
        path: "/"
        backend:
          service:
            name: hello-server
            port:
              number: 8000
  - host: "demo.atguigu.com"
    http:
      paths:
      - pathType: Prefix
        path: "/nginx"
        backend:
          service:
            name: nginx-demo
            port:
              number: 8000
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
kubectl apply -f xxxx.yaml
  • 1

在这里插入图片描述

路径重写
apiVersion: networking.k8s.io/v1
kind: Ingress  
metadata:
  annotations:
    nginx.ingress.kubernetes.io/rewrite-target: /$2
  name: ingress-host-bar
spec:
  ingressClassName: nginx
  rules:
  - host: "hello.atguigu.com"
    http:
      paths:
      - pathType: Prefix
        path: "/"
        backend:
          service:
            name: hello-server
            port:
              number: 8000
  - host: "demo.atguigu.com"
    http:
      paths:
      - pathType: Prefix
        path: "/nginx(/|$)(.*)"
        backend:
          service:
            name: nginx-demo
            port:
              number: 8000
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29

在这里插入图片描述
在这里插入图片描述

流量限制
apiVersion: networking.k8s.io/v1
kind: Ingress
metadata:
  name: ingress-limit-rate
  annotations:
    nginx.ingress.kubernetes.io/limit-rps: "1"
spec:
  ingressClassName: nginx
  rules:
  - host: "haha.atguigu.com"
    http:
      paths:
      - pathType: Exact
        path: "/"
        backend:
          service:
            name: nginx-demo
            port:
              number: 8000
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19

在这里插入图片描述

Service总结模型

在这里插入图片描述

K8s存储抽象

相当于之前pod上安装的软件,进行文件外部挂载,但是每个pod都挂载,当pod出现问题,外部挂载文件无法同步,可能就会丢失数据,使用一个外部统一的文件处理系统,使用文件系统的高可用来完善文件的挂载
在这里插入图片描述

所有机器安装

yum install -y nfs-utils
  • 1

nfs主节点

echo "/nfs/data/ *(insecure,rw,sync,no_root_squash)" > /etc/exports
  • 1

创建/nfs/data文件夹(主节点)

mkdir -p /nfs/data
  • 1

启动rpc远程绑定(主节点)

systemctl enable rpcbind --now
  • 1

(开机)启动nfs服务(主节点)

systemctl enable nfs-server --now
  • 1

配置生效(主节点)

exportfs -r
  • 1

查看主节点机器有哪些目录可以同步挂载(node节点)

showmount -e 主节点的内网ip
  • 1

在这里插入图片描述

执行以下命令挂载 nfs 服务器上的共享目录到本机路径(node节点)

mkdir -p /nfs/data
mount -t nfs 172.31.0.4:/nfs/data /nfs/data
  • 1
  • 2

172.31.0.4:主节点的内网ip /nfs/data:这里为你从节点服务器的路径,如从节点服务器创建了一个路径
mkdir -p /abc/nfs
mount -t nfs 172.31.0.4:/nfs/data /abc/nfs
如现在的服务器是k8s-node1 在服务器下创建一个文件夹/abc/nfs,使用命令:
mount -t
同步主节点内网ip下的/nfs/data nfs路径同步到k8s-node1 下的/abc/nfs下

写入一个测试文件

echo "hello nfs server" > /nfs/data/test.txt
  • 1

在任何一台机器对同步的文件下的内容有改动那么,所有机器下的改文件下的内容都会进行改动

原生方式数据挂载

apiVersion: apps/v1
kind: Deployment
metadata:
  labels:
    app: nginx-pv-demo
  name: nginx-pv-demo
spec:
  replicas: 2
  selector:
    matchLabels:
      app: nginx-pv-demo
  template:
    metadata:
      labels:
        app: nginx-pv-demo
    spec:
      containers:
      - image: nginx
        name: nginx
        volumeMounts:
        - name: html
          mountPath: /usr/share/nginx/html
      volumes:
        - name: html
          nfs:
            server: 172.31.0.4
            path: /nfs/data/nginx-pv
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27

PV&PVC

PV:持久卷(Persistent Volume),将应用需要持久化的数据保存到指定位置
PVC:持久卷申明(Persistent Volume Claim),申明需要使用的持久卷规格

创建pv池

静态供应
#nfs主节点
mkdir -p /nfs/data/01
mkdir -p /nfs/data/02
mkdir -p /nfs/data/03

创建PV

apiVersion: v1
kind: PersistentVolume
metadata:
  name: pv01-10m
spec:
  capacity:
    storage: 10M
  accessModes:
    - ReadWriteMany
  storageClassName: nfs
  nfs:
    path: /nfs/data/01
    server: 172.31.0.4
---
apiVersion: v1
kind: PersistentVolume
metadata:
  name: pv02-1gi
spec:
  capacity:
    storage: 1Gi
  accessModes:
    - ReadWriteMany
  storageClassName: nfs
  nfs:
    path: /nfs/data/02
    server: 172.31.0.4
---
apiVersion: v1
kind: PersistentVolume
metadata:
  name: pv03-3gi
spec:
  capacity:
    storage: 3Gi
  accessModes:
    - ReadWriteMany
  storageClassName: nfs
  nfs:
    path: /nfs/data/03
    server: 172.31.0.4
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40
  • 41

PVC创建与绑定

创建PVC
kind: PersistentVolumeClaim
apiVersion: v1
metadata:
  name: nginx-pvc
spec:
  accessModes:
    - ReadWriteMany
  resources:
    requests:
      storage: 200Mi
  storageClassName: nfs
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
创建Pod绑定PVC
apiVersion: apps/v1
kind: Deployment
metadata:
  labels:
    app: nginx-deploy-pvc
  name: nginx-deploy-pvc
spec:
  replicas: 2
  selector:
    matchLabels:
      app: nginx-deploy-pvc
  template:
    metadata:
      labels:
        app: nginx-deploy-pvc
    spec:
      containers:
      - image: nginx
        name: nginx
        volumeMounts:
        - name: html
          mountPath: /usr/share/nginx/html
      volumes:
        - name: html
          persistentVolumeClaim:
            claimName: nginx-pvc
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26

ConfigMap

抽取应用配置,并且可以自动更新

redis示例
把之前的配置文件创建为配置集

创建配置,redis保存到k8s的etcd;
vi redis.conf
kubectl create cm redis-conf --from-file=redis.conf
  • 1
  • 2

在这里插入图片描述
当配置集创建完成后即可删除redis.conf 主要作用就是为了创建配置集

查看配置集yaml内容
在这里插入图片描述

关键内容:
apiVersion: v1
data: #data是所有真正的数据,key:默认是文件名 value:配置文件的内容
redis.conf: |
appendonly yes
kind: ConfigMap #资源类型ConfigMap
metadata:
name: redis-conf #资源名称
namespace: default

创建Pod
apiVersion: v1
kind: Pod
metadata:
  name: redis
spec:
  containers:
  - name: redis
    image: redis
    command:
      - redis-server
      - "/redis-master/redis.conf"  #指的是redis容器内部的位置
    ports:
    - containerPort: 6379
    volumeMounts:
    - mountPath: /data
      name: data
    - mountPath: /redis-master
      name: config
  volumes:
    - name: data
      emptyDir: {}
    - name: config
      configMap:
        name: redis-conf
        items:
        - key: redis.conf
          path: redis.conf
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27

在这里插入图片描述
检查默认配置

kubectl exec -it redis -- redis-cli
  • 1
127.0.0.1:6379> CONFIG GET appendonly
127.0.0.1:6379> CONFIG GET requirepass
  • 1
  • 2
修改ConfigMap
apiVersion: v1
kind: ConfigMap
metadata:
  name: example-redis-config
data:
  redis-config: |
    maxmemory 2mb
    maxmemory-policy allkeys-lru 
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8

检查配置是否更新

kubectl exec -it redis -- redis-cli
  • 1
127.0.0.1:6379> CONFIG GET maxmemory
127.0.0.1:6379> CONFIG GET maxmemory-policy
  • 1
  • 2

检查指定文件内容是否已经更新
修改了CM。Pod里面的配置文件会跟着变

配置值未更改,因为需要重新启动 Pod 才能从关联的 ConfigMap 中获取更新的值。
原因:我们的Pod部署的中间件自己本身没有热更新能力

Secret

Secret 对象类型用来保存敏感信息,例如密码、OAuth 令牌和 SSH 密钥。 将这些信息放在 secret 中比放在 Pod 的定义或者 容器镜像 中来说更加安全和灵活。

kubectl create secret docker-registry leifengyang-docker
–docker-username=leifengyang
–docker-password=Lfy123456
–docker-email=534096094@qq.com

命令格式
kubectl create secret docker-registry regcred
–docker-server=<你的镜像仓库服务器>
–docker-username=<你的用户名>
–docker-password=<你的密码>
–docker-email=<你的邮箱地址>

apiVersion: v1
kind: Pod
metadata:
  name: private-nginx
spec:
  containers:
  - name: private-nginx
    image: leifengyang/guignginx:v1.0
  imagePullSecrets:
  - name: leifengyang-docker
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/凡人多烦事01/article/detail/732585
推荐阅读
相关标签
  

闽ICP备14008679号