当前位置:   article > 正文

Kubernetes Pod调度基础

Kubernetes Pod调度基础

        在传统架构中,我们总在考虑或者面临一个问题,我们的应用需要部署在哪里,我们的应用下载在哪里运行着?有一个服务不可访问了,去哪里排査?诸如此类的问题总是会出现在工作中。
        但是在使用 Kubernetes 部署应用后,我们无需再关心应用到底部署在了哪台服务器,也无需登录某台服务器去排査应用的问题,而是使用 Kubernetes 提供的 Kubect1 或者 Dashboard 即可快速地定位到应用,之后便可以进行执行命令、查看日志、监控等操作。
        对于 Kubernetes 的应用部署,我们可以用 Pod 进行单独的部署,也可以使用更高级的资源调度方法,比如 Deployment、statefulset。

一、Replication Controller(复制控制器,RC)和ReplicaSet

1.Replication controller

        Replication controller(复制控制器,RC)
        RC 用来确保 Pod 副本数达到期望值,这样可以确保一个或多个同类 Pod 总是可用的。让你的pod副本数,保持在你的预期值

        如果存在的 Pod 数量大于设定的值,Replication controller 将终止额外的 Pod,如果太少,Replication controller 将会启动更多的 Pod 用于保证达到期望值,与手动创建 Pod 不同的是,用 Replication controller 维护的 Pod 在失败、删除或终止时会自动替换。因此,即使应用程序只需要一个 Pod,也应该使用 Replication controller 或其他方式管理。ReplicationController 类似于进程管理程序,但是 Replication controller 不是监视单个节点上的各个进程,而是监视多个节点上的多个 Pod。

        Replication controller 的使用如下列示例。

(1)编辑 ReplicationController 文件
  1. vim replicationcontroller-nginx.yaml
  2. apiVersion: v1
  3. kind: ReplicationController
  4. metadata:
  5. name: nginx
  6. spec:
  7. replicas: 3
  8. selector:
  9. app: nginx
  10. template:
  11. metadata:
  12. name: nginx
  13. labels:
  14. app: nginx
  15. spec:
  16. containers:
  17. - name: nginx
  18. image: nginx:1.7.9
  19. ports:
  20. - containerPort: 80
(2)创建 ReplicationController
kubectl apply -f replicationcontroller-nginx.yaml
  1. [root@master ~]# ku get pod
  2. NAME READY STATUS RESTARTS AGE
  3. nginx-8rtw9 1/1 Running 0 13s
  4. nginx-h8hht 1/1 Running 0 13s
  5. nginx-qjzjj 1/1 Running 0 13s
ku delete pod nginx-qjzjj 
  1. [root@master ~]# ku get pod
  2. NAME READY STATUS RESTARTS AGE
  3. nginx-8rtw9 1/1 Running 0 2m12s
  4. nginx-h8hht 1/1 Running 0 2m12s
  5. nginx-sxtgr 1/1 Running 0 37s
(4)删除 ReplicationController
ku delete -f replicationcontroller-nginx.yaml 

2.Replicaset

        Replicaset(复制集,RS)是支持基于集合的标签选择器的下一代 Replication controller,它主要用于 Deployment 协调创建、删除和更新 Pod,和 Replication controller 唯一的区别是Replicaset 支持标签选择器。在实际应用中,虽然 Replicaset 可以单独使用,但是一般建议使用 Deployment 来自动管理 Replicaset,除非自定义的 Pod 不需要更新或有其他编排等。
        定义一个 Replicaset 的实例如下:

(1)编辑 Replicaset 文件
  1. vim replicaset-example.yaml
  2. apiVersion: apps/v1
  3. kind: ReplicaSet
  4. metadata:
  5. name: frontend
  6. labels:
  7. app: guestbook
  8. tier: frontend
  9. spec:
  10. # modify replicas according to your case
  11. replicas: 3
  12. selector:
  13. matchLabels:
  14. tier: frontend
  15. matchExpressions:
  16. - {key: tier, operator: In, values: [frontend]}
  17. template:
  18. metadata:
  19. labels:
  20. app: guestbook
  21. tier: frontend
  22. spec:
  23. containers:
  24. - name: php-redis
  25. image: nginx:1.7.9
  26. resources:
  27. requests:
  28. cpu: 100m
  29. memory: 100Mi
  30. env:
  31. - name: GET_HOSTS_FROM
  32. value: dns
  33. # If your cluster config does not include a dns service, then to
  34. # instead access environment variables to find service host
  35. # info, comment out the 'value: dns' line above, and uncomment the
  36. # line below.
  37. # value: env
  38. ports:
  39. - containerPort: 80

 备注:
requests:代表容器启动请求的资源限制,分配的资源必须要达到此要求limits:代表最多可以请求多少资源单位 m:CPU 的计量单位叫毫核(m)。一个节点的 CPU 核心数量乘以 1080,得到的就是节点总的 CPU 总数量。如,一个节点有两个核,那么该节点的 CPU总量为 2000m。该容器启动时请求 100/2000 的核心(5%)

(2)创建 RS
kubectl create -f replicaset-example.yaml
  1. root@master ~]# ku get pod
  2. NAME READY STATUS RESTARTS AGE
  3. frontend-ltf94 1/1 Running 0 8s
  4. frontend-mkzc4 1/1 Running 0 8s
  5. frontend-n8ggb 1/1 Running 0 8s
  1. [root@master ~]# ku get rs
  2. NAME DESIRED CURRENT READY AGE
  3. frontend 3 3 3 78s
kubectl delete -f replicaset-example.yaml

3.标签与标签选择器

(1)标签

        标签是用来标识 K8S 对象的一组附加在其上的键值对,通过标签我们可以方便地筛选或排除组对象。借鉴资料中的话来讲,集群中的应用部署或是批处理的程序部署通常都是多维度的,为了实现对这些对象的管理,往往需要对某一特定维度的对象进行操作,而标签可以通过用户的意愿组织集群中的对象之间的结构,而不需要对集群进行修改。
        在同一个对象之下标签的 Key 值必须唯一的。名称方面,标签名不得多于 63 个字符且必须由字母或数字开头或结尾,可以包含字母、数字、-、_、·;标签前缀是可选的,必须以 DNS 子域名的方式指定,例如:kubernetes.io,后用/将其与标签名分隔。通常情况下,若不使用标签前缀那么该标签的 Key 将被视为专属于用户的,在 K8s 的系统组件向对象添加标签时,必须指定前缀。在标签值方面,若标签值不为空,则其长度不得多于 63 个字符且必须由字母或数字开头或结尾,可以包含字母、数字、-、_、·。

(2)标签选择器

        标签选择器可以用来选择一组对象(标签并不能唯一标识一个对象),APIServer 支持两种标签选择器:基于等式的标签选择器与基于集合的标签选器:
        基于等式的标签选择方式:在这种选择方式下可以使用=、==、!=三种操作符来进行选择,前两个的含义是一样的,都代表相等,第三种代表不等。选择条件可以通过,叠加,例如date=day1,name!=build 代表选择 date 值为 day1 且 name 值不为 build 的对象。

        基于集合的标签选择方式:这种选择器可以同时选择一组对象。支持的操作符有:in、notin、exists。具体的使用方法为:
选择 date 包含有值为 day1、day2、day3 的标签:date in(day1,day2,day3)选择 name 值不为 build、pipline 的标签:name notin(build,pipline)选择所有包含 test 的标签:test

选择所有不包含 test 的标签:!test
基于集合的标签选择器也支持使用“,”分隔以同时叠加选择,相同意义上的选择条件在这两种选择方式之间是等价的。

(3)标签与标签选择器举例
  1. 标签定义的方式:
  2. 基于等式的定义 app=nginx
  3. 基于键值对定义方式 app: nginx
  4. 基于集合的标签定义方式:{key:app,operator: In,values: [nginx,apache])
  5. app: nginx
  6. app: apache

基于等式的标签选择器
selector:
        component:redis

基于集合的标签选择器
selector:
  matchLabels:
     component:redis
  matchExpressions:
       - {key:tier,operator:In,values:[cache]}

       - {key:environment,operator:NotIn,values:[dev]}

        matchlabels 是{key,value}对的映射。matchlabels 映射中的单个{key,value}等价于matchexpressions 的元素,其键字段为“key”,运算符为“in”,值数组仅包含“value”matchexpressions 是 pod 选择器需求的列表。有效的运算符包括 in、notin、exists 和doesnotexist。对于 in 和 notin,设置的值必须为非空。matchlabels 和 matchexpressions中的所有要求都被放在一起-必须满足所有这些要求才能匹配

二、无状态应用管理Deployment

定义:
        无状态服务(stateless service)对单次请求的处理,不依赖其他请求,也就是说,处理一次请求所需的全部信息,要么都包含在这个请求里,要么可以从外部获取到(比如说数据库),服务器本身不存储任何信息。这种服务叫做无状态服务。
        无状态服务:就是没有特殊状态的服务,各个请求对于服务器来说统一无差别处理,请求自身携带了所有服务端所需要的所有参数(服务端自身不存储跟请求相关的任何数据,不包括数据库存储信息)
        如果在启动一个服务时,不依赖于该服务之前的运行状态,或者不依赖于其他服务,这个服务就是无状态服务;反之,就是有状态服务。

无状态服务特点

1、数据方面:无状态服务不会在本地存储持久化数据,多个实例可以共享相同的持久化数据
2、结果方面:多个服务实例对于同一个用户请求的响应结果是完全一致的
3、关系方面:这种多服务实例之间是没有依赖关系
4、影响方面:在 k8s 控制器中动态启停无状态服务的 pod 并不会对其它的 pod 产生影响

5、示例方面:nginx实例,tomcat 实例,web 应用

6、资源方面:相关的k8s 资源有:Replicaset、ReplicationController、Deployment

7、创建方式:Deployment 被设计用来管理无状态服务的 pod

  • 每个 pod 完全一致,原因如下:
  • 无状态服务内的多个 Pod 创建的顺序是没有顺序的
  • 无状态服务内的多个 Pod 的名称是随机的
  • pod 被重新启动调度后,它的名称与 IP 都会发生变化
  • 无状态服务内的多个 Pod 背后是共享存储的

8、扩缩容方式:随机缩容

        由于是无状态服务,所以这些控制器创建的 pod 序号都是随机值。并且在缩容也是随机,并不会明确缩容某一个 pod。因为所有实例得到的返回值都是一样,所以缩容任何一个 pod 都可以。

        Deployment 用来管理 RS,并为 Pod 和 RS 提供声明性更新,以及许多其他的新的功能,生产环境中使用 Deployment 替代 RS。
        Deployment 一般用于部署公司的无状态服务,因为企业内部现在都是以微服务为主,微服务实现无状态化也是最佳实践。可以利用 Deployment 的高级功能做到无缝迁移、自动扩容缩容、自动灾难恢复、一键回滚等功能。

        无状态服务不会在本地存储持久化数据,多个服务实例对于同一个用户请求的响应结果是完全-致的。这种多服务实例之间是没有依赖关系,比如 web 应用,在 k8s 控制器中动态启停无状态服务的 pod 并不会对其它的 pod 产生影响。
        Deployment 被设计用来管理无状态服务的 pod,每个 pod 完全一致

        无状态服务内的多个 Pod 创建的顺序是没有顺序的。

        无状态服务内的多个 Pod 的名称是随机的.pod 被重新启动调度后,它的名称与 IP 都会发生变

        无状态服务内的多个 Pod 背后是共享存储的。

1.创建Deployment

(1)编写Deployment文件
  1. vim nginx-deployment.yaml
  2. apiVersion: apps/v1
  3. kind: Deployment
  4. metadata:
  5. name: nginx-deployment
  6. labels:
  7. name: nginx-deployment
  8. spec:
  9. replicas: 2
  10. selector:
  11. matchLabels:
  12. app: nginx
  13. template:
  14. metadata:
  15. labels:
  16. app: nginx
  17. spec:
  18. containers:
  19. - name: nginx
  20. image: nginx:1.7.9
  21. ports:
  22. - name: nginx
  23. containerPort: 80

备注:
从 1.16 开始,彻底废弃了其他的 apiVersion,只能使用 app/v1replicas:pod 的副本数
selector:定义 Deployment 如何找到要管理的 Pod,与 template 的 label 标签对应,app/v1必须指定
template:
        app:nginx使用 label 标记 pod
        spec:定义 pod 的详细信息
        name:nginx 表示 pod 运行一个名字为 nginx 的容器
        image:运行此 pod 使用的镜像
        port:容器用于发送和接收流量的端口

(2)使用kubectl create 创建此 Deployment
kubectl create -f nginx-deployment.yaml
(3)查看 Deployment 的状态
  1. kubectl get deploy
  2. NAME READY UP-TO-DATE AVAILABLE AGE
  3. nginx-deployment 2/2 2 2 13s
(4)使用rollout 查看整个 Deployment 的创建过程状态
kubectl rollout status deployment/nginx-deployment
(5)查看这个 Deployment 对应的 RS
kubectl get rs -l app=nginx
(6)查看此 Deployment 创建的 pod
kubectl get pods --show-labels

2.更新 Deployment

        通过 Deployment 部署应用后,如果需要对 Deployment 文件的配置文件或者镜像版本进行更新,更改后该 Deployment 会创建新的 RepliccaSet,之后会对管理的 Pod 进行滚动升级。

(1)更新 pod 的 image
  1. kubectl set image deployment nginx-deployment nginx=nginx:1.9.1 --record
  2. kubectlset image deployment nginx-deployment nginx=nginx:1.12.0 --record

 或直接修改 deployment 文件,效果相同
kubectl edit deployment.v1.apps/nginx-deployment

(2)查看更新过程
kubectl rollout status deployment.v1.apps/nginx-deployment
(3)此时的 RS 有新的和旧的
  1. kubectl get rs
  2. NAME DESIRED CURRENT READY AGE
  3. nginx-deployment-5bf97d5c4c 1 1 0 16s
  4. nginx-deployment-6cf9b75cdd 0 0 0 9m36s
  5. nginx-deployment-7569c477b6 2 2 2 5m18s
(4)通过 describe 查看 deployment 的详细信息
kubectl describe deploy nginx-deployment

3.回滚 deployment

当更新的版本不稳定或者配置不合理时,可以对其进行回滚操作。

(1)多更新几次 deployment
  1. Kubectl set image deployment nginx-deployment nginx=dotbalo/canary:v1 --record
  2. kubectl set image deployment nginx-deployment nginx=dotbalo/canary:v2 --record
(2)查看更新历史
kubectl rollout history deployment/nginx-deployment

备注:
最后的一个版本是当前版本

(3)查看某次更新的详情
kubectl rollout history deployment/nginx-deployment --revision=2
(4)回滚到指定版本
kubectl rollout undo deployment/nginx-deployment --to-revision=2

查看:

kubectl rollout history deployment/nginx-deployment
(5)回滚到上次版本
kubectl rollout undo deployment/nginx-deployment

查看

kubectl rollout history deployment/nginx-deployment

4.扩容 deployment

(1)调整 pod 的副本数
kubectl scale deployment.vl.apps/nginx-deployment --replicas=3

查看

kubectl get pods

5.暂停和恢复 deployment 更新

        可以先暂停更新,然后对 deployment 进行相关的操作,比如更新镜像,对其资源进行限制等,可以进行多次更新或修改,此时只是设置出更新的参数,但实际整体的 depolyment 更新是停滞状态
        最后可以统一开始更新

(1)暂停 deployment 更新
kubectl rollout pause deployment/nginx-deployment
(2)恢复 deployment 更新
kubectl rollout resume deployment.v1.apps/nginx-deployment

6.删除 Deployment

Kubectl delete -f nginx-deployment.yaml

三、有状态应用管理 statefulset

定义:
        StatefulSet(有状态集,缩写为sts)常用于部署有状态的且需要有序启动的应用程序。比如在生产环境中,可以部署 Elasticsearch 集群、MongoD8 集群或者需要持久化的 RabbitMQ 集群、Redis 集群、Kafka 集群和ZooKeeper 集群等,
        一个 statefulset 管理着基于相同容器规范的 Pod。与Deployment 不同的是,statefulset 为每个 Pod 维护了一个标识。这些 Pod 是根据相同规范创建的,但是不可互换,每个Pod 都有一个持久的标识符,在重新调度时也会被保留。

有状态服务:容器数据持久化保持

  • 有状态服务 可以说是 需要数据存储功能的服务、或者指多线程类型的服务,队列等。(mysq1数据库、kafka、zookeeper等)
  • 每个实例都需要有自己独立的持久化存储,并且在 k8s 中是通过申明模板来进行定义。持久卷申明模板在创建 pod 之前创建,绑定到 pod 中,模板可以定义多个。

        有状态服务常常用于实现事务(并不是唯一办法,下文有另外的方案)。举一个常见的例子,在商城里购买一件商品。需要经过放入购物车、确认订单、付款等多个步骤。由于 HTTP 协议本身是无状态的,所以为了实现有状态服务,就需要通过一些额外的方案。比如最常见的 session,将用户挑选的商品(购物车),保存到session 中,当付款的时候,再从购物车里取出商品信息。

有状态服务的特征

1、数据方面:有状态服务需要在本地存储持久化数据,典型的应用是分布式数据库

2、结果方面:实例之间,请求结果可能存在不一致
3、关系方面:分布式节点实例之间有依赖的拓扑关系,比如主从关系。
4、影响方面:如果 K8S 停止分布式集群中任一实例 pod,就可能会导致数据丢失或者集群的 crash(崩溃)
5、示例方面:mysq1数据库、kafka、zookeeper、Redis 主从架构
6、资源方面:statefulset
7、创建方式:statefulset 管理
        Statefu1 管理有状态的应用,Pod 有如下特征:

  • 唯一性:每个 Pod 会被分配一个唯一序号,
  • 顺序性:Pod 启动,更新,销毁是按顺序进行
  • 稳定的网络标识:Pod 主机名,DNS地址不会随着 Pod 被重新调度而发生变化,
  • 稳定的持久化存储:Pod 被重新调度后,仍然能挂载原有的PV,从而保证了数据的完整性和一致性

        有状态的 pod 是用来运行有状态应用的,所以其在数据卷上存储的数据非常重要,在Statefulset 缩容时删除这个声明将是灾难性的,特别是对于 statefulset 来说,缩容就像减少其 replicas 数值一样简单。基于这个原因,当需要释放特定的持久卷时,需要手动删除对应的持久卷声明。

备注:有状态服务
        有状态服务需要在本地存储持久化数据,典型的是分布式数据库的应用,分布式节点实例之间有
依赖的拓扑关系.比如,主从关系。如果 K8S 停止分布式集群中任一实例 pod,就可能会导致数据丢失或者集群的 crash(崩溃)。

无状态服务和有状态服务的比较:

无状态服务
服务不依赖自身的状态,实例的状态数据可以维护在内存中。
任何一个请求都可以被任意一个实例处理。
不存储状态数据,实例可以水平拓展,通过负载均衡将请求分发到各个节点。
在一个封闭的系统中,只存在一个数据闭环。
通常存在于单体架构的集群中。

有状态服务
服务本身依赖或者存在局部的状态数据,这些数据需要自身持久化或者可以通过其他节点恢复。
一个请求只能被某个节点(或者同等状态下的节点)处理。
存储状态数据,实例的拓展需要整个系统参与状态的迁移。
在一个封闭的系统中,存在多个数据闭环,需要考虑这些闭环的数据一致性问题。
通常存在于分布式架构中。

1.编写 statefulset 资源文件

(1)定义一个 statefulset 资源文件
  1. vim redis-statefulset.yaml
  2. apiVersion: v1
  3. kind: Service
  4. metadata:
  5. name: redis-svc
  6. spec:
  7. selector:
  8. app: redis-sts
  9. ports:
  10. - port: 6379
  11. protocol: TCP
  12. targetPort: 6379
  13. apiVersion: apps/v1
  14. kind: StatefulSet
  15. metadata:
  16. name: redis-sts
  17. spec:
  18. serviceName: redis-svc
  19. replicas: 2
  20. selector:
  21. matchLabels:
  22. app: redis-sts
  23. template:
  24. metadata:
  25. labels:
  26. app: redis-sts
  27. spec:
  28. containers:
  29. - image: redis:5-alpine
  30. name: redis
  31. ports:
  32. - containerPort: 6379

备注:
kind:service 定义了一个名字为redis-svc 的服务,定义了一个名字为redis-sts的 statefulset,replicas 表示部署 Podkind: statefulset的副本数。

(2)创建statefulset
kubectl create -f redis-statefulset.yaml
(3)查看statefilset 状态
kubectl get sts
(4)查看群集状态
kubectl get service
  1. [root@master ~]# ku get pod -l app=redis-sts
  2. NAME READY STATUS RESTARTS AGE
  3. redis-sts-0 1/1 Running 0 18s
  4. redis-sts-1 1/1 Running 0 16s

备注:
-1:指定标签(labe1)
注意 NAME 列,名称是 sts 的 name-序号,这里序号越小则说明创建的越早从 AGE 列也可以看出来,这就解决了有状态应用中的启动顺序问题,比如可以让 redis-sts-0 作为 redis 的主节点,redis-sts-1作为从节点

2.statefulset 扩容

(1)扩容,将副本数修改为 3
kubectl scale sts redis-sts --replicas=3
  1. [root@master ~]# ku get pod
  2. NAME READY STATUS RESTARTS AGE
  3. nginx-deployment-7569c477b6-67qkg 1/1 Running 0 53m
  4. nginx-deployment-7569c477b6-fbb4j 1/1 Running 0 53m
  5. redis-sts-0 1/1 Running 0 2m42s
  6. redis-sts-1 1/1 Running 0 2m40s
  7. redis-sts-2 1/1 Running 0 4s

3.缩容

(1)打开第二个终端,动态显示缩容流程
kubectl get pods -w -l app=redis-sts

备注:
-w:动态监听所有的 pod

(2)在原来第一个终端修改副本数为 2
kubectl patch sts redis-sts -p '{"spec":{"replicas":2}}'

注意:
此时可以查看第二个终端上的变化

(3)在第一个终端上查看最终结果
kubectl get pods -l app=redis-sts

4.非级联删除 statefulset

        删除 statefulset 有两种方式:级联删除和非级联删除。
        使用非级联方式删除 statefulset 时,statefulset 的 Pod 不会被删除。使用级联方式删除Statefulset 时,statefulset 和它的 Pod 都会被删除。

(1)采用非级联删除
kubectl delete statefulsetredis-sts--cascade=false

查看

kubectl get sts
(2)查看管理的 pod
kubectl get po

发现 pod 并没有被删除

(3)删除 pod
  1. kubectl delete po redis-sts-0
  2. kubectl delete po redis-sts-1

5.级联删除statefulset

(1)先创建出 statefulset
kubectl create -f redis-statefulset.yaml

备注:
如果提示服务已存在,先删除
kubectl delete -f redis-statefulset.yam1

(2)级联删除
kubectl delete statefulset redis-sts

查看

kubectl get po

两个 pod 全都没了

(3)删除 redis 服务
kubectl delete -f redis-statefulset.yaml

四、守护进程集Daemonset

Daemonset(守护进程集,缩写为ds)和守护进程类似,

1.什么是 Daemonset

        有时候我们需要在每个 Kubernetes 节点或符合条件的节点上都部署某个应用,那么就可以使用 Kubernetes 的 DaemonSet 调度 Pod。Daemonset确保全部(或符合条件)的节点上运行一个Pod 副本。当有新的节点加入集群时,也会为他们新增一个 Pod,当节点从集群中移除时,这些 Pod会被回收,删除 Daemonset 将会删除它创建的所有的 Pod。

2.定义一个 Daemonset

  1. vim daemonset-nginx.yaml
  2. apiVersion: apps/v1
  3. kind: DaemonSet
  4. metadata:
  5. name: pod-controller
  6. namespace: dev
  7. labels:
  8. controller: daemonset
  9. spec:
  10. selector:
  11. matchLabels:
  12. app: nginx-pod
  13. template:
  14. metadata:
  15. labels:
  16. app: nginx-pod
  17. spec:
  18. containers:
  19. - name: nginx
  20. image: nginx:1.7.9
  21. ports:
  22. - name: nginx-port
  23. containerPort: 80
  24. protocol: TCP

3.创建 Daemonset

kubectl create namespace dev
kubectl create -f daemonset-nginx.yaml

4.查看Daemonset

  1. kubectl get ds -n dev -o wide
  2. NAME DESIRED CURRENT READY UP-TO-DATE AVAILABLE NODE SELECTOR AGE CONTAINERS IMAGES SELECTOR
  3. pod-controller 2 2 2 2 2 <none> 18m nginx nginx:1.7.9 app=nginx-pod

5.查看pod所在的节点

  1. [root@master ~]# ku get pod -n dev -owide
  2. NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES
  3. pod-controller-462lq 1/1 Running 0 34s 10.244.104.15 node2 <none> <none>
  4. pod-controller-jwmv5 1/1 Running 0 34s 10.244.166.140 node1 <none> <none>

6.删除DaemonSet

kubectl delete ds pod-controller -n dev

五、CronJob

        Cronjob(计划任务,缩写为 c)用于以时间为基准的周期性地执行任务,这些自动化任务和运行在 Linux系统上的 cronJob 一样。

1.创建 CronJob

(1)编辑 cronjob 文件
  1. vim cronjob-example.yaml
  2. apiVersion: batch/v1 #1.21版本以上 改为batch/v1
  3. kind: CronJob
  4. metadata:
  5. name: hello
  6. spec:
  7. schedule: "*/1 * * * *"
  8. jobTemplate:
  9. spec:
  10. template:
  11. spec:
  12. containers:
  13. - name: hello
  14. image: busybox:v1
  15. args:
  16. - /bin/sh
  17. - -c
  18. - date; echo Hello from the Kubernetes cluster
  19. restartPolicy: OnFailure

备注:
这个案例会在每分钟执行一次计划任务,并输出当前时间和“Hello from the Kubernetes cluster”3

(2)创建 cronjob
kubectl create -f cronjob-example.yaml
(3)查看
  1. kubectl get cj
  2. NAME SCHEDULE SUSPEND ACTIVE LAST SCHEDULE AGE
  3. hello */1 * * * * False 0 <none> 11s

等待一会后可以查看生成的 pod

  1. kubectl get jobs
  2. NAME COMPLETIONS DURATION AGE
  3. hello-28738271 1/1 1s 59s
(4)查看生成的 pod,并查看 pod 的执行日志
kubectl get pod
  1. [root@master ~]# ku logs -f hello-28738272-nmcdf
  2. Thu Aug 22 03:12:01 UTC 2024
  3. Hello from the Kubernetes cluster
(5)删除
ku delete cronjob hello
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/我家自动化/article/detail/1021852
推荐阅读
相关标签
  

闽ICP备14008679号