赞
踩
在传统架构中,我们总在考虑或者面临一个问题,我们的应用需要部署在哪里,我们的应用下载在哪里运行着?有一个服务不可访问了,去哪里排査?诸如此类的问题总是会出现在工作中。
但是在使用 Kubernetes 部署应用后,我们无需再关心应用到底部署在了哪台服务器,也无需登录某台服务器去排査应用的问题,而是使用 Kubernetes 提供的 Kubect1 或者 Dashboard 即可快速地定位到应用,之后便可以进行执行命令、查看日志、监控等操作。
对于 Kubernetes 的应用部署,我们可以用 Pod 进行单独的部署,也可以使用更高级的资源调度方法,比如 Deployment、statefulset。
Replication controller(复制控制器,RC)
RC 用来确保 Pod 副本数达到期望值,这样可以确保一个或多个同类 Pod 总是可用的。让你的pod副本数,保持在你的预期值
如果存在的 Pod 数量大于设定的值,Replication controller 将终止额外的 Pod,如果太少,Replication controller 将会启动更多的 Pod 用于保证达到期望值,与手动创建 Pod 不同的是,用 Replication controller 维护的 Pod 在失败、删除或终止时会自动替换。因此,即使应用程序只需要一个 Pod,也应该使用 Replication controller 或其他方式管理。ReplicationController 类似于进程管理程序,但是 Replication controller 不是监视单个节点上的各个进程,而是监视多个节点上的多个 Pod。
Replication controller 的使用如下列示例。
- vim replicationcontroller-nginx.yaml
-
- apiVersion: v1
- kind: ReplicationController
- metadata:
- name: nginx
- spec:
- replicas: 3
- selector:
- app: nginx
- template:
- metadata:
- name: nginx
- labels:
- app: nginx
- spec:
- containers:
- - name: nginx
- image: nginx:1.7.9
- ports:
- - containerPort: 80
kubectl apply -f replicationcontroller-nginx.yaml
- [root@master ~]# ku get pod
- NAME READY STATUS RESTARTS AGE
- nginx-8rtw9 1/1 Running 0 13s
- nginx-h8hht 1/1 Running 0 13s
- nginx-qjzjj 1/1 Running 0 13s
ku delete pod nginx-qjzjj
- [root@master ~]# ku get pod
- NAME READY STATUS RESTARTS AGE
- nginx-8rtw9 1/1 Running 0 2m12s
- nginx-h8hht 1/1 Running 0 2m12s
- nginx-sxtgr 1/1 Running 0 37s
ku delete -f replicationcontroller-nginx.yaml
Replicaset(复制集,RS)是支持基于集合的标签选择器的下一代 Replication controller,它主要用于 Deployment 协调创建、删除和更新 Pod,和 Replication controller 唯一的区别是Replicaset 支持标签选择器。在实际应用中,虽然 Replicaset 可以单独使用,但是一般建议使用 Deployment 来自动管理 Replicaset,除非自定义的 Pod 不需要更新或有其他编排等。
定义一个 Replicaset 的实例如下:
- vim replicaset-example.yaml
-
- apiVersion: apps/v1
- kind: ReplicaSet
- metadata:
- name: frontend
- labels:
- app: guestbook
- tier: frontend
- spec:
- # modify replicas according to your case
- replicas: 3
- selector:
- matchLabels:
- tier: frontend
- matchExpressions:
- - {key: tier, operator: In, values: [frontend]}
- template:
- metadata:
- labels:
- app: guestbook
- tier: frontend
- spec:
- containers:
- - name: php-redis
- image: nginx:1.7.9
- resources:
- requests:
- cpu: 100m
- memory: 100Mi
- env:
- - name: GET_HOSTS_FROM
- value: dns
- # If your cluster config does not include a dns service, then to
- # instead access environment variables to find service host
- # info, comment out the 'value: dns' line above, and uncomment the
- # line below.
- # value: env
- ports:
- - containerPort: 80
备注:
requests:代表容器启动请求的资源限制,分配的资源必须要达到此要求limits:代表最多可以请求多少资源单位 m:CPU 的计量单位叫毫核(m)。一个节点的 CPU 核心数量乘以 1080,得到的就是节点总的 CPU 总数量。如,一个节点有两个核,那么该节点的 CPU总量为 2000m。该容器启动时请求 100/2000 的核心(5%)
kubectl create -f replicaset-example.yaml
- root@master ~]# ku get pod
- NAME READY STATUS RESTARTS AGE
- frontend-ltf94 1/1 Running 0 8s
- frontend-mkzc4 1/1 Running 0 8s
- frontend-n8ggb 1/1 Running 0 8s
- [root@master ~]# ku get rs
- NAME DESIRED CURRENT READY AGE
- frontend 3 3 3 78s
kubectl delete -f replicaset-example.yaml
标签是用来标识 K8S 对象的一组附加在其上的键值对,通过标签我们可以方便地筛选或排除组对象。借鉴资料中的话来讲,集群中的应用部署或是批处理的程序部署通常都是多维度的,为了实现对这些对象的管理,往往需要对某一特定维度的对象进行操作,而标签可以通过用户的意愿组织集群中的对象之间的结构,而不需要对集群进行修改。
在同一个对象之下标签的 Key 值必须唯一的。名称方面,标签名不得多于 63 个字符且必须由字母或数字开头或结尾,可以包含字母、数字、-、_、·;标签前缀是可选的,必须以 DNS 子域名的方式指定,例如:kubernetes.io,后用/将其与标签名分隔。通常情况下,若不使用标签前缀那么该标签的 Key 将被视为专属于用户的,在 K8s 的系统组件向对象添加标签时,必须指定前缀。在标签值方面,若标签值不为空,则其长度不得多于 63 个字符且必须由字母或数字开头或结尾,可以包含字母、数字、-、_、·。
标签选择器可以用来选择一组对象(标签并不能唯一标识一个对象),APIServer 支持两种标签选择器:基于等式的标签选择器与基于集合的标签选器:
基于等式的标签选择方式:在这种选择方式下可以使用=、==、!=三种操作符来进行选择,前两个的含义是一样的,都代表相等,第三种代表不等。选择条件可以通过,叠加,例如date=day1,name!=build 代表选择 date 值为 day1 且 name 值不为 build 的对象。
基于集合的标签选择方式:这种选择器可以同时选择一组对象。支持的操作符有:in、notin、exists。具体的使用方法为:
选择 date 包含有值为 day1、day2、day3 的标签:date in(day1,day2,day3)选择 name 值不为 build、pipline 的标签:name notin(build,pipline)选择所有包含 test 的标签:test
选择所有不包含 test 的标签:!test
基于集合的标签选择器也支持使用“,”分隔以同时叠加选择,相同意义上的选择条件在这两种选择方式之间是等价的。
- 标签定义的方式:
-
- 基于等式的定义 app=nginx
- 基于键值对定义方式 app: nginx
- 基于集合的标签定义方式:{key:app,operator: In,values: [nginx,apache])
- app: nginx
- app: apache
-
基于等式的标签选择器
selector:
component:redis
基于集合的标签选择器
selector:
matchLabels:
component:redis
matchExpressions:
- {key:tier,operator:In,values:[cache]}
- {key:environment,operator:NotIn,values:[dev]}
matchlabels 是{key,value}对的映射。matchlabels 映射中的单个{key,value}等价于matchexpressions 的元素,其键字段为“key”,运算符为“in”,值数组仅包含“value”matchexpressions 是 pod 选择器需求的列表。有效的运算符包括 in、notin、exists 和doesnotexist。对于 in 和 notin,设置的值必须为非空。matchlabels 和 matchexpressions中的所有要求都被放在一起-必须满足所有这些要求才能匹配
定义:
无状态服务(stateless service)对单次请求的处理,不依赖其他请求,也就是说,处理一次请求所需的全部信息,要么都包含在这个请求里,要么可以从外部获取到(比如说数据库),服务器本身不存储任何信息。这种服务叫做无状态服务。
无状态服务:就是没有特殊状态的服务,各个请求对于服务器来说统一无差别处理,请求自身携带了所有服务端所需要的所有参数(服务端自身不存储跟请求相关的任何数据,不包括数据库存储信息)
如果在启动一个服务时,不依赖于该服务之前的运行状态,或者不依赖于其他服务,这个服务就是无状态服务;反之,就是有状态服务。
无状态服务特点
1、数据方面:无状态服务不会在本地存储持久化数据,多个实例可以共享相同的持久化数据
2、结果方面:多个服务实例对于同一个用户请求的响应结果是完全一致的
3、关系方面:这种多服务实例之间是没有依赖关系
4、影响方面:在 k8s 控制器中动态启停无状态服务的 pod 并不会对其它的 pod 产生影响
5、示例方面:nginx实例,tomcat 实例,web 应用
6、资源方面:相关的k8s 资源有:Replicaset、ReplicationController、Deployment
7、创建方式:Deployment 被设计用来管理无状态服务的 pod
8、扩缩容方式:随机缩容
由于是无状态服务,所以这些控制器创建的 pod 序号都是随机值。并且在缩容也是随机,并不会明确缩容某一个 pod。因为所有实例得到的返回值都是一样,所以缩容任何一个 pod 都可以。
Deployment 用来管理 RS,并为 Pod 和 RS 提供声明性更新,以及许多其他的新的功能,生产环境中使用 Deployment 替代 RS。
Deployment 一般用于部署公司的无状态服务,因为企业内部现在都是以微服务为主,微服务实现无状态化也是最佳实践。可以利用 Deployment 的高级功能做到无缝迁移、自动扩容缩容、自动灾难恢复、一键回滚等功能。
无状态服务不会在本地存储持久化数据,多个服务实例对于同一个用户请求的响应结果是完全-致的。这种多服务实例之间是没有依赖关系,比如 web 应用,在 k8s 控制器中动态启停无状态服务的 pod 并不会对其它的 pod 产生影响。
Deployment 被设计用来管理无状态服务的 pod,每个 pod 完全一致
无状态服务内的多个 Pod 创建的顺序是没有顺序的。
无状态服务内的多个 Pod 的名称是随机的.pod 被重新启动调度后,它的名称与 IP 都会发生变
化
无状态服务内的多个 Pod 背后是共享存储的。
- vim nginx-deployment.yaml
-
- apiVersion: apps/v1
- kind: Deployment
- metadata:
- name: nginx-deployment
- labels:
- name: nginx-deployment
- spec:
- replicas: 2
- selector:
- matchLabels:
- app: nginx
- template:
- metadata:
- labels:
- app: nginx
- spec:
- containers:
- - name: nginx
- image: nginx:1.7.9
- ports:
- - name: nginx
- containerPort: 80
备注:
从 1.16 开始,彻底废弃了其他的 apiVersion,只能使用 app/v1replicas:pod 的副本数
selector:定义 Deployment 如何找到要管理的 Pod,与 template 的 label 标签对应,app/v1必须指定
template:
app:nginx使用 label 标记 pod
spec:定义 pod 的详细信息
name:nginx 表示 pod 运行一个名字为 nginx 的容器
image:运行此 pod 使用的镜像
port:容器用于发送和接收流量的端口
kubectl create -f nginx-deployment.yaml
- kubectl get deploy
- NAME READY UP-TO-DATE AVAILABLE AGE
- nginx-deployment 2/2 2 2 13s
kubectl rollout status deployment/nginx-deployment
kubectl get rs -l app=nginx
kubectl get pods --show-labels
通过 Deployment 部署应用后,如果需要对 Deployment 文件的配置文件或者镜像版本进行更新,更改后该 Deployment 会创建新的 RepliccaSet,之后会对管理的 Pod 进行滚动升级。
- kubectl set image deployment nginx-deployment nginx=nginx:1.9.1 --record
- kubectlset image deployment nginx-deployment nginx=nginx:1.12.0 --record
或直接修改 deployment 文件,效果相同
kubectl edit deployment.v1.apps/nginx-deployment
kubectl rollout status deployment.v1.apps/nginx-deployment
- kubectl get rs
- NAME DESIRED CURRENT READY AGE
- nginx-deployment-5bf97d5c4c 1 1 0 16s
- nginx-deployment-6cf9b75cdd 0 0 0 9m36s
- nginx-deployment-7569c477b6 2 2 2 5m18s
kubectl describe deploy nginx-deployment
当更新的版本不稳定或者配置不合理时,可以对其进行回滚操作。
- Kubectl set image deployment nginx-deployment nginx=dotbalo/canary:v1 --record
- kubectl set image deployment nginx-deployment nginx=dotbalo/canary:v2 --record
kubectl rollout history deployment/nginx-deployment
备注:
最后的一个版本是当前版本
kubectl rollout history deployment/nginx-deployment --revision=2
kubectl rollout undo deployment/nginx-deployment --to-revision=2
查看:
kubectl rollout history deployment/nginx-deployment
kubectl rollout undo deployment/nginx-deployment
查看
kubectl rollout history deployment/nginx-deployment
kubectl scale deployment.vl.apps/nginx-deployment --replicas=3
查看
kubectl get pods
可以先暂停更新,然后对 deployment 进行相关的操作,比如更新镜像,对其资源进行限制等,可以进行多次更新或修改,此时只是设置出更新的参数,但实际整体的 depolyment 更新是停滞状态
最后可以统一开始更新
kubectl rollout pause deployment/nginx-deployment
kubectl rollout resume deployment.v1.apps/nginx-deployment
Kubectl delete -f nginx-deployment.yaml
定义:
StatefulSet(有状态集,缩写为sts)常用于部署有状态的且需要有序启动的应用程序。比如在生产环境中,可以部署 Elasticsearch 集群、MongoD8 集群或者需要持久化的 RabbitMQ 集群、Redis 集群、Kafka 集群和ZooKeeper 集群等,
一个 statefulset 管理着基于相同容器规范的 Pod。与Deployment 不同的是,statefulset 为每个 Pod 维护了一个标识。这些 Pod 是根据相同规范创建的,但是不可互换,每个Pod 都有一个持久的标识符,在重新调度时也会被保留。
有状态服务:容器数据持久化保持
有状态服务常常用于实现事务(并不是唯一办法,下文有另外的方案)。举一个常见的例子,在商城里购买一件商品。需要经过放入购物车、确认订单、付款等多个步骤。由于 HTTP 协议本身是无状态的,所以为了实现有状态服务,就需要通过一些额外的方案。比如最常见的 session,将用户挑选的商品(购物车),保存到session 中,当付款的时候,再从购物车里取出商品信息。
有状态服务的特征
1、数据方面:有状态服务需要在本地存储持久化数据,典型的应用是分布式数据库
2、结果方面:实例之间,请求结果可能存在不一致
3、关系方面:分布式节点实例之间有依赖的拓扑关系,比如主从关系。
4、影响方面:如果 K8S 停止分布式集群中任一实例 pod,就可能会导致数据丢失或者集群的 crash(崩溃)
5、示例方面:mysq1数据库、kafka、zookeeper、Redis 主从架构
6、资源方面:statefulset
7、创建方式:statefulset 管理
Statefu1 管理有状态的应用,Pod 有如下特征:
有状态的 pod 是用来运行有状态应用的,所以其在数据卷上存储的数据非常重要,在Statefulset 缩容时删除这个声明将是灾难性的,特别是对于 statefulset 来说,缩容就像减少其 replicas 数值一样简单。基于这个原因,当需要释放特定的持久卷时,需要手动删除对应的持久卷声明。
备注:有状态服务
有状态服务需要在本地存储持久化数据,典型的是分布式数据库的应用,分布式节点实例之间有
依赖的拓扑关系.比如,主从关系。如果 K8S 停止分布式集群中任一实例 pod,就可能会导致数据丢失或者集群的 crash(崩溃)。
无状态服务
服务不依赖自身的状态,实例的状态数据可以维护在内存中。
任何一个请求都可以被任意一个实例处理。
不存储状态数据,实例可以水平拓展,通过负载均衡将请求分发到各个节点。
在一个封闭的系统中,只存在一个数据闭环。
通常存在于单体架构的集群中。
有状态服务
服务本身依赖或者存在局部的状态数据,这些数据需要自身持久化或者可以通过其他节点恢复。
一个请求只能被某个节点(或者同等状态下的节点)处理。
存储状态数据,实例的拓展需要整个系统参与状态的迁移。
在一个封闭的系统中,存在多个数据闭环,需要考虑这些闭环的数据一致性问题。
通常存在于分布式架构中。
- vim redis-statefulset.yaml
-
- apiVersion: v1
- kind: Service
- metadata:
- name: redis-svc
-
- spec:
- selector:
- app: redis-sts
-
- ports:
- - port: 6379
- protocol: TCP
- targetPort: 6379
-
- apiVersion: apps/v1
- kind: StatefulSet
- metadata:
- name: redis-sts
-
- spec:
- serviceName: redis-svc
- replicas: 2
- selector:
- matchLabels:
- app: redis-sts
-
- template:
- metadata:
- labels:
- app: redis-sts
- spec:
- containers:
- - image: redis:5-alpine
- name: redis
- ports:
- - containerPort: 6379
备注:
kind:service 定义了一个名字为redis-svc 的服务,定义了一个名字为redis-sts的 statefulset,replicas 表示部署 Podkind: statefulset的副本数。
kubectl create -f redis-statefulset.yaml
kubectl get sts
kubectl get service
- [root@master ~]# ku get pod -l app=redis-sts
- NAME READY STATUS RESTARTS AGE
- redis-sts-0 1/1 Running 0 18s
- redis-sts-1 1/1 Running 0 16s
备注:
-1:指定标签(labe1)
注意 NAME 列,名称是 sts 的 name-序号,这里序号越小则说明创建的越早从 AGE 列也可以看出来,这就解决了有状态应用中的启动顺序问题,比如可以让 redis-sts-0 作为 redis 的主节点,redis-sts-1作为从节点
kubectl scale sts redis-sts --replicas=3
- [root@master ~]# ku get pod
- NAME READY STATUS RESTARTS AGE
- nginx-deployment-7569c477b6-67qkg 1/1 Running 0 53m
- nginx-deployment-7569c477b6-fbb4j 1/1 Running 0 53m
- redis-sts-0 1/1 Running 0 2m42s
- redis-sts-1 1/1 Running 0 2m40s
- redis-sts-2 1/1 Running 0 4s
kubectl get pods -w -l app=redis-sts
备注:
-w:动态监听所有的 pod
kubectl patch sts redis-sts -p '{"spec":{"replicas":2}}'
注意:
此时可以查看第二个终端上的变化
kubectl get pods -l app=redis-sts
删除 statefulset 有两种方式:级联删除和非级联删除。
使用非级联方式删除 statefulset 时,statefulset 的 Pod 不会被删除。使用级联方式删除Statefulset 时,statefulset 和它的 Pod 都会被删除。
kubectl delete statefulsetredis-sts--cascade=false
查看
kubectl get sts
kubectl get po
发现 pod 并没有被删除
- kubectl delete po redis-sts-0
- kubectl delete po redis-sts-1
kubectl create -f redis-statefulset.yaml
备注:
如果提示服务已存在,先删除
kubectl delete -f redis-statefulset.yam1
kubectl delete statefulset redis-sts
查看
kubectl get po
两个 pod 全都没了
kubectl delete -f redis-statefulset.yaml
Daemonset(守护进程集,缩写为ds)和守护进程类似,
有时候我们需要在每个 Kubernetes 节点或符合条件的节点上都部署某个应用,那么就可以使用 Kubernetes 的 DaemonSet 调度 Pod。Daemonset确保全部(或符合条件)的节点上运行一个Pod 副本。当有新的节点加入集群时,也会为他们新增一个 Pod,当节点从集群中移除时,这些 Pod会被回收,删除 Daemonset 将会删除它创建的所有的 Pod。
- vim daemonset-nginx.yaml
-
- apiVersion: apps/v1
- kind: DaemonSet
- metadata:
- name: pod-controller
- namespace: dev
- labels:
- controller: daemonset
- spec:
- selector:
- matchLabels:
- app: nginx-pod
- template:
- metadata:
- labels:
- app: nginx-pod
- spec:
- containers:
- - name: nginx
- image: nginx:1.7.9
- ports:
- - name: nginx-port
- containerPort: 80
- protocol: TCP
kubectl create namespace dev
kubectl create -f daemonset-nginx.yaml
- kubectl get ds -n dev -o wide
-
- NAME DESIRED CURRENT READY UP-TO-DATE AVAILABLE NODE SELECTOR AGE CONTAINERS IMAGES SELECTOR
- pod-controller 2 2 2 2 2 <none> 18m nginx nginx:1.7.9 app=nginx-pod
- [root@master ~]# ku get pod -n dev -owide
- NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES
- pod-controller-462lq 1/1 Running 0 34s 10.244.104.15 node2 <none> <none>
- pod-controller-jwmv5 1/1 Running 0 34s 10.244.166.140 node1 <none> <none>
kubectl delete ds pod-controller -n dev
Cronjob(计划任务,缩写为 c)用于以时间为基准的周期性地执行任务,这些自动化任务和运行在 Linux系统上的 cronJob 一样。
- vim cronjob-example.yaml
-
- apiVersion: batch/v1 #1.21版本以上 改为batch/v1
- kind: CronJob
- metadata:
- name: hello
- spec:
- schedule: "*/1 * * * *"
- jobTemplate:
- spec:
- template:
- spec:
- containers:
- - name: hello
- image: busybox:v1
- args:
- - /bin/sh
- - -c
- - date; echo Hello from the Kubernetes cluster
- restartPolicy: OnFailure
备注:
这个案例会在每分钟执行一次计划任务,并输出当前时间和“Hello from the Kubernetes cluster”3
kubectl create -f cronjob-example.yaml
- kubectl get cj
- NAME SCHEDULE SUSPEND ACTIVE LAST SCHEDULE AGE
- hello */1 * * * * False 0 <none> 11s
等待一会后可以查看生成的 pod
- kubectl get jobs
- NAME COMPLETIONS DURATION AGE
- hello-28738271 1/1 1s 59s
kubectl get pod
- [root@master ~]# ku logs -f hello-28738272-nmcdf
- Thu Aug 22 03:12:01 UTC 2024
- Hello from the Kubernetes cluster
ku delete cronjob hello
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。