当前位置:   article > 正文

k8s pv与pvc_deployment 使用pvc

deployment 使用pvc

1.前言

PV 是 Kubernetes 集群中的一种资源对象,它代表着一块物理存储设备,例如磁盘、网络存储或云存储等。PV 可以被多个 Pod 共享,并且可以独立于 Pod 存在。PV 可以配置不同的访问模式 (Access Modes),例如 ReadWriteOnceReadOnlyManyReadWriteMany,以确定 PV 可以被多少个 Pod 同时挂载以及这些 Pod 是否可以进行读写操作。PV 还可以配置不同的回收策略 (Reclaim Policy),例如 RetainDeleteRecycle,以确定 PV 在被释放后如何进行清理,PVC 是 Kubernetes 集群中的另一种资源对象,它代表着一个 Pod 对 PV 的请求。PVC 可以指定所需的存储容量和访问模式,以及所需的 PV 的属性,例如存储类、访问模式和标签等。当 Pod 需要使用持久化存储时,它可以通过 PVC 来请求 PV。如果没有匹配的 PV 可用,则 Kubernetes 将自动创建一个新的 PV 来满足 PVC 的要求

2.配置存储

本实验搭建nfs存储来做为pv的存储

用master节点搭建nfs服务端

yum -y install nfs-common nfs-utils

创建nfs共享目录

mkdir /k8s-master

授权共享目录

chmod 666 /k8s-master

配置exports文件

cat > /etc/exports << EOF

/k8s-data *(rw,no_root_squash,no_all_squash,sync)

EOF

启动nfs服务

systemctl strart rpcbind

systemctl start nfs

在所有node节点也需要按照nfs客户端,不然使用pv时挂载不了

yum -y install nfs-utils

3.静态pv

3.1先来说一下pv中的几个参数配置项

persistentVolumeReclaimPolicy配置pv回收策略,有以下三个参数

Retain:此回收策略在删除pvc时,不会清除pv中的数据,并且pv也不会自动回收,需要手动删除pv重建,pv才会变成可用状态,当然重建后pv路径中的数据依然还存在

Recycle:删除pvc后,自动清除pv挂载路径下的数据,pv变为可被绑定状态,但是此策略已经在k8s 1.22.0版本中被废弃了

Delete: 删除 Storage Provider上对应的存储资源,但是NFS不支持Delete策略,只有使用其它的存储才支持,例如 AWS EBS等

accessModes配置访问模式,有以下三个参数

ReadWriteOnce:pv可以被一个节点以读写的方式挂载

ReadOnlyMany:pv可以被多个节点以只读的方式挂载

ReadWriteMany:pv可以被多个节点以读写的方式挂载

限制多节点和单节点的挂载对NFS存储无效,NFS 存储插件支持多次挂载,即使 accessModes 属性设置为 ReadWriteOnce,也可以被多个 Pod 挂载

3.2 创建pv

我这边因为有nas存储所以就没用master作为服务器

因为使用的是nfs网络共享存储服务,所以所有k8s节点都需要提前安装nfs服务,不然挂载会出现报错

yum -y install nfs-utils

创建pv yaml文件

vi pv1.yaml

  1. apiVersion: v1
  2. kind: PersistentVolume
  3. metadata:
  4. name: pv1
  5. spec:
  6. capacity:
  7. storage: 1Gi #配置容量大小
  8. accessModes:
  9. - ReadWriteOnce #配置访问策略为只允许一个节点读写
  10. persistentVolumeReclaimPolicy: Retain #配置回收策略,Retain为手动回收
  11. storageClassName: nfs #配置为nfs
  12. nfs:
  13. path: /volume2/k8s-data/pv1 #配置nfs服务端的共享路径
  14. server: 10.1.13.99 #配置nfs服务器地址

使用yaml文件生成pv

kubectl create -f pv1.yaml

kubectl get pv

 可以看到已经按yaml文件中的要求创建了一个pv,状态为availabel,此状态为可绑定状态

在这里也介绍一下pv的几个状态

Available:PV 可以被 PVC 请求并绑定

Bound:PV 已经被 PVC 绑定,并且可以被 Pod 挂载和使用

Released:PVC 已经释放了 PV,但是 PV 中的数据仍然存在,可以被其他 PVC 请求并绑定

Failed:PV 的状态出现了错误,可能是由于存储设备故障或者其他原因导致的

3.3创建pvc

vi pvc1.yaml

  1. apiVersion: v1
  2. kind: PersistentVolumeClaim
  3. metadata:
  4. name: pvc1
  5. spec:
  6. accessModes:
  7. - ReadWriteOnce
  8. resources:
  9. requests:
  10. storage: 1Gi
  11. storageClassName: nfs

执行yaml文件创建pvc

kubectl create -f pvc1.yaml

kubectl get pvc

 可以看到已经创建出了pvc,并且状态为绑定状态,再来查看一下pv的状态

kubectl get pv

可以看到pv也是bound状态,接下来创建一个deployment来使用这个pvc 

3.4创建deployement

vi deployment-nginx.yaml

  1. apiVersion: apps/v1
  2. kind: Deployment
  3. metadata:
  4. labels:
  5. app: nginx
  6. name: nginx
  7. namespace: default
  8. spec:
  9. replicas: 5
  10. progressDeadlineSeconds: 600
  11. minReadySeconds: 10
  12. strategy:
  13. rollingUpdate:
  14. maxSurge: 1
  15. maxUnavailable: 0
  16. type: RollingUpdate
  17. selector:
  18. matchLabels:
  19. app: nginx
  20. template:
  21. metadata:
  22. labels:
  23. app: nginx
  24. spec:
  25. containers:
  26. - name: nginx
  27. image: nginx:1.21
  28. imagePullPolicy: IfNotPresent
  29. ports:
  30. - containerPort: 80
  31. volumeMounts: #配置在pod上的挂载目录
  32. - mountPath: "/data"
  33. name: data
  34. volumes: #配置使用pvc
  35. - name: data
  36. persistentVolumeClaim:
  37. claimName: pvc1

现在来执行一下这个yaml

kubectl create -f deployment-nginx.yaml 

kubectl describe deployment nginx

查看deployment的详细信息可以看到我们配置的挂载,进入pod的挂载目录创建一下文件看看效果

 kubectl get pod -l app=nginx

kubectl exec -it nginx-848ccb9994-8hkx7 /bin/sh

可以看到我们在挂载的目录中创建了一个123.txt的文件,在nfs服务端路径中查看一下效果

 

可以看到在nfs服务端的路径中同步创建出了123.txt文件,现在我们把deployment和pvc都删除掉看看会怎么样

kubectl delete deployment nginx

kubectl delete pvc pvc1

kubectl get pv

 可以看到我们把pvc删除后pv变成了released状态数据也依然存在,这是因为配置了回收策略为retain,需要手动删除数据,可以把pv删除后重建就会变回available状态,即使把pv删除,路径中的数据依然存在

kubectl delete -f pv1.yaml

kubectl create -f pv1.yaml

kubectl get pv

ls /dev/nas/pv1

 因为使用的是nfs的原因也展示不了其它的回收策略和写入策略的功能

4.动态pv

当使用pv比较多的时候,使用自动创建pv是比较方便的

因为使用的是nfs的原因需要额外安装一个NFS Client Provisioner插件

4.1安装插件并授权

vi nfs-rbac.yaml

  1. #配置插件rabc权限yaml
  2. kind: ServiceAccount
  3. apiVersion: v1
  4. metadata:
  5. name: nfs-client-provisioner
  6. ---
  7. kind: ClusterRole
  8. apiVersion: rbac.authorization.k8s.io/v1
  9. metadata:
  10. name: nfs-client-provisioner-runner
  11. rules:
  12. - apiGroups: [""]
  13. resources: ["persistentvolumes"]
  14. verbs: ["get", "list", "watch", "create", "delete"]
  15. - apiGroups: [""]
  16. resources: ["persistentvolumeclaims"]
  17. verbs: ["get", "list", "watch", "update"]
  18. - apiGroups: ["storage.k8s.io"]
  19. resources: ["storageclasses"]
  20. verbs: ["get", "list", "watch"]
  21. - apiGroups: [""]
  22. resources: ["events"]
  23. verbs: ["create", "update", "patch"]
  24. ---
  25. kind: ClusterRoleBinding
  26. apiVersion: rbac.authorization.k8s.io/v1
  27. metadata:
  28. name: run-nfs-client-provisioner
  29. subjects:
  30. - kind: ServiceAccount
  31. name: nfs-client-provisioner
  32. namespace: default
  33. roleRef:
  34. kind: ClusterRole
  35. name: nfs-client-provisioner-runner
  36. apiGroup: rbac.authorization.k8s.io
  37. ---
  38. kind: Role
  39. apiVersion: rbac.authorization.k8s.io/v1
  40. metadata:
  41. name: leader-locking-nfs-client-provisioner
  42. rules:
  43. - apiGroups: [""]
  44. resources: ["endpoints"]
  45. verbs: ["get", "list", "watch", "create", "update", "patch"]
  46. ---
  47. kind: RoleBinding
  48. apiVersion: rbac.authorization.k8s.io/v1
  49. metadata:
  50. name: leader-locking-nfs-client-provisioner
  51. subjects:
  52. - kind: ServiceAccount
  53. name: nfs-client-provisioner
  54. namespace: default
  55. roleRef:
  56. kind: Role
  57. name: leader-locking-nfs-client-provisioner
  58. apiGroup: rbac.authorization.k8s.io
  59. #创建nfs插件yaml
  60. ---
  61. kind: Deployment
  62. apiVersion: apps/v1
  63. metadata:
  64. name: nfs-client-provisioner
  65. namespace: default
  66. labels:
  67. app: nfs-client-provisioner
  68. spec:
  69. replicas: 1
  70. strategy:
  71. type: Recreate
  72. selector:
  73. matchLabels:
  74. app: nfs-client-provisioner
  75. template:
  76. metadata:
  77. labels:
  78. app: nfs-client-provisioner
  79. spec:
  80. serviceAccountName: nfs-client-provisioner
  81. containers:
  82. - name: nfs-client-provisioner
  83. image: gmoney23/nfs-client-provisioner #插件镜像
  84. volumeMounts:
  85. - name: nfs-client-root
  86. mountPath: /persistentvolumes
  87. env:
  88. - name: PROVISIONER_NAME
  89. value: nfs-client
  90. - name: NFS_SERVER
  91. value: 10.1.13.99 #配置nfs服务地址
  92. - name: NFS_PATH
  93. value: /volume2/k8s-data #配置nfs服务的共享路径
  94. volumes:
  95. - name: nfs-client-root
  96. nfs:
  97. server: 10.1.13.99 #配置nfs服务地址
  98. path: /volume2/k8s-data #配置nfs服务的共享路径
  99. #配置自动创建pv的模板yaml
  100. ---
  101. apiVersion: storage.k8s.io/v1
  102. kind: StorageClass
  103. metadata:
  104. name: nfs-storage
  105. annotations:
  106. storageclass.kubernetes.io/is-default-class: "true"
  107. provisioner: nfs-client
  108. parameters:
  109. archiveOnDelete: "true"

我这边为了方便直接把配置pv自动创建模板的yaml也写到了一起,接下来执行一下这个yaml文件

 kubectl create -f nfs-rbac.yaml

kubectl get storageclass

这边来创建pvc测试一下,看看是否会自动生成pv

vi pvc1.yaml

  1. apiVersion: v1
  2. kind: PersistentVolumeClaim
  3. metadata:
  4. name: pvc1
  5. spec:
  6. accessModes:
  7. - ReadWriteOnce
  8. resources:
  9. requests:
  10. storage: 3Gi
  11. storageClassName: nfs-storage #写入pv模板的名称

执行一下yaml看看是否有自动生成pv

kubectl get pv

kubectl create -f pvc1.yaml

kubectl get pvc

kubectl get pv

 可以看到自动创建出了符合pvc要求的pv,并且状态也是已绑定状态

现在删除一下pvc看看,pv是什么状态

kubectl delete pvc pvc1

kubectl get pvc

kubectl get pv

可以看到删除pvc后,pv也自动被删除了

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/不正经/article/detail/171377
推荐阅读
相关标签
  

闽ICP备14008679号