当前位置:   article > 正文

K8S Storage

K8S Storage

概述

一般情况下,K8S中的Pod都不应该将数据持久化到Pod中,因为Pod可能被随时创建和删除(扩容或缩容),即便是StatefulSet或Operator的Pod,也都不建议在Pod里存放数据,可以将数据持久化到Host上。K8S提供了非常丰富的存储相关的功能,使得我们可以方便的让Pod访问存储设备。K8S通过Volume挂载的方式让Pod来访问存储设备,Volume与Pod绑定并与Pod有相同的生命周期,Volume在Pod中定义,而Pod中的容器只需要使用volumeMounts就可以使用在Pod中定义的Volume。

Pod可以引用的Volume包含以下几类:

  • K8S内部的资源对象:ConfigMap,Secret,DownwardAPI,Projected Volume等。
  • Node上的资源:emptyDir,hostPath。
  • 持久化存储或网络存储:CephFS,FC,CSI,iSCSI,NFS,RBD等。
  • 存储厂商提供的存储卷:ScaleIO Volumes,StorageOS,VsphereVolume等。
  • 公有云提供的存储卷:AWS EBS,AzureDisk,AzureFile,GCE PersistentDisk等。

总之,在K8S Pod中能够使用几乎所有的存储类型和方式。特别的,通过K8S CSI(Container Storage Interface),我们还可以开发自己的存储访问插件,接入到特定的存储设备中。

Node本地存储

Node本地存储包含emptyDirhostPath两种类型。emptyDir用于存储临时数据,如缓存,删除Pod的时候会自动被清理,emptyDir可以指定成Memory类型,但会被统计成容器使用的内存。hostPath用于挂载Node的某个目录,对于大部分应用来说,都不应该直接使用hostPath,因为如果Pod被调度到了其它节点,其就无法访问到之前节点的hostPath中的数据。另外,hostPath上使用的数据不会被计算到存储资源使用统计,可能出现磁盘占满而没有提醒的情况。但如果Pod只会被调度到某个Node上,那么还是可以使用hostPath。

PV/PVC

PV是Persistent Volume,即持久化卷,是K8S最常用的存储访问方式,几乎所有的外部存储都可以通过PV来访问。

PVC是Persistent Volume Claim,即持久化卷声明,通过PVC来申请对PV的使用。PV和PVC是一一对应关系,PV只有通过PVC关联后,才能被使用。Pod通过volumeMounts来关联PVC。

PV通常由管理员来创建,管理员事先分配好一定数量的PV供Pod使用,不同的存储类别(NFS,Cloud,Ceph等)最后都对应成一系列的PV。

PVC通常由Pod来创建,在需要使用存储的时候通过PVC来申请PV。

以下是PV/PVC的关系图,

下面通过NFS来介绍PV/PVC的使用,

先搭建一个双节点的K8S集群(略),参考 K8S 概述

接着在master节点上搭建NFS服务,主要命令如下,

  1. # On Server:
  2. sudo apt update
  3. sudo apt install nfs-kernel-server
  4. mkdir -p /home/sunny/nfs/root
  5. echo "/home/sunny/nfs/root *(rw,sync,no_subtree_check)" | sudo tee -a /etc/exports
  6. sudo exportfs -ra
  7. sudo systemctl start nfs-kernel-server
  8. sudo systemctl enable nfs-kernel-server
  9. # On Client:
  10. sudo apt install nfs-common
  11. sudo mount 192.168.126.16:/home/sunny/nfs/root /mnt

创建PV,pv.yaml,这里会指定NFS IP和路径,

  1. apiVersion: v1
  2. kind: PersistentVolume
  3. metadata:
  4. name: nginx-pv
  5. labels:
  6. type: nginx-pv
  7. spec:
  8. capacity:
  9. storage: 1Gi
  10. accessModes:
  11. - ReadWriteMany
  12. nfs:
  13. path: /home/sunny/nfs/root
  14. server: 192.168.126.16
  1. sunny@xxx:~/k8s/storage/pvc_pv$ kubectl apply -f pv.yaml
  2. persistentvolume/nginx-pv created
  3. sunny@xxx:~/k8s/storage/pvc_pv$ kubectl get pv
  4. NAME CAPACITY ACCESS MODES RECLAIM POLICY STATUS CLAIM STORAGECLASS REASON AGE
  5. nginx-pv 1Gi RWX Retain Available 3s

创建PVC,pvc.yaml,

  1. apiVersion: v1
  2. kind: PersistentVolumeClaim
  3. metadata:
  4. name: nginx-pvc
  5. namespace: default
  6. spec:
  7. accessModes:
  8. - ReadWriteMany
  9. resources:
  10. requests:
  11. storage: 1Gi
  1. sunny@xxx:~/k8s/storage/pvc_pv$ kubectl apply -f pvc.yaml
  2. persistentvolumeclaim/nginx-pvc created
  3. sunny@xxx:~/k8s/storage/pvc_pv$ kubectl get pvc
  4. NAME STATUS VOLUME CAPACITY ACCESS MODES STORAGECLASS AGE
  5. nginx-pvc Bound nginx-pv 1Gi RWX 2s
  6. sunny@xxx:~/k8s/storage/pvc_pv$ kubectl get pv
  7. NAME CAPACITY ACCESS MODES RECLAIM POLICY STATUS CLAIM STORAGECLASS REASON AGE
  8. nginx-pv 1Gi RWX Retain Bound default/nginx-pvc 2m59s

可以看出,此时PVC的状态是Bound,说明其已经找到了一个与此关联的PV,而PV的状态也由之前的Available变为Bound,且CLAIM是default/nginx-pvc,先就可以在Pod里使用这个PVC了。默认PV和PVC的回收策略都是Retain,需要手动删除数据,即便PV和PVC都被删除。

创建Nginx Pod,nginx.yaml,在配置文件中引用PVC,

  1. apiVersion: apps/v1
  2. kind: Deployment
  3. metadata:
  4. name: nginx-deployment
  5. spec:
  6. selector:
  7. matchLabels:
  8. app: nginx
  9. replicas: 3
  10. template:
  11. metadata:
  12. labels:
  13. app: nginx
  14. spec:
  15. containers:
  16. - name: nginx
  17. image: nginx:1.14.2
  18. imagePullPolicy: IfNotPresent
  19. volumeMounts:
  20. - name: html
  21. mountPath: /usr/share/nginx/html
  22. ports:
  23. - containerPort: 80
  24. volumes:
  25. - name: html
  26. persistentVolumeClaim:
  27. claimName: nginx-pvc
  1. sunny@xxx:~/k8s/storage/pvc_pv$ kubectl apply -f nginx.yaml
  2. deployment.apps/nginx-deployment created
  3. sunny@xxx:~/k8s/storage/pvc_pv$ kubectl get pod -o wide
  4. NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES
  5. nginx-deployment-574dc457cf-8ds25 1/1 Running 0 53s 10.244.96.163 r05u36-nex-wvie-spr-cd <none> <none>
  6. nginx-deployment-574dc457cf-fnn9z 1/1 Running 0 53s 10.244.2.220 r05u30-nex-wvie-spr-cd <none> <none>
  7. nginx-deployment-574dc457cf-h4kkk 1/1 Running 0 53s 10.244.96.162 r05u36-nex-wvie-spr-cd <none> <none>

在NFS服务器对应的路径上创建一个index.html文件,供Nginx使用,

  1. sunny@r05u30-nex-wvie-spr-cd:~/nfs/root$ pwd
  2. /home/sunny/nfs/root
  3. sunny@r05u30-nex-wvie-spr-cd:~/nfs/root$ cat index.html
  4. Hello Nginx with PV/PVC.
  5. sunny@r05u30-nex-wvie-spr-cd:~/nfs/root$

由于3个Nginx Pod都关联到了同一个NFS路径,所以通过任何一个Pod都能访问到相同的index.html。如果Pod扩容,新的Pod使用的也是相同的NFS路径,所以这里就非常容易的实现了数据和代码的分离,无论代码部署到哪里,无论代码如何改变,数据都是统一存储的。

  1. sunny@xxx:~/k8s/storage/pvc_pv$ wget 10.244.2.220
  2. --2024-03-21 01:45:21-- http://10.244.2.220/
  3. Connecting to 10.244.2.220:80... connected.
  4. HTTP request sent, awaiting response... 200 OK
  5. Length: 25 [text/html]
  6. Saving to: ‘index.html’
  7. index.html 100%[===========================================================================================================>] 25 --.-KB/s in 0s
  8. 2024-03-21 01:45:21 (1.68 MB/s) - ‘index.html’ saved [25/25]
  9. sunny@xxx:~/k8s/storage/pvc_pv$ cat index.html
  10. Hello Nginx with PV/PVC.
  11. sunny@xxx:~/k8s/storage/pvc_pv$ wget 10.244.96.163
  12. --2024-03-21 01:47:36-- http://10.244.96.163/
  13. Connecting to 10.244.96.163:80... connected.
  14. HTTP request sent, awaiting response... 200 OK
  15. Length: 25 [text/html]
  16. Saving to: ‘index.html.1’
  17. index.html.1 100%[===========================================================================================================>] 25 --.-KB/s in 0s
  18. 2024-03-21 01:47:36 (79.9 KB/s) - ‘index.html.1’ saved [25/25]
  19. sunny@xxx:~/k8s/storage/pvc_pv$ cat index.html
  20. Hello Nginx with PV/PVC.

StorageClass/PVC

PV/PVC确实能实现几乎所有存储的统一访问,但有一个问题是PV需要由管理员事先创建好,如果创建PVC的时候没有可用的PV,则PVC的状态会一直是Pending。不同的Pod可能需要不同规格和类型的PV,管理员需要创建和维护数量巨大的PV,这无疑是增加了K8S集群管理员的负担。

StorageClass可以解决上面的问题。当我们在创建PVC的时候可以指定一个StorageClass,PVC在创建过程中会根据StorageClass的描述自动创建需要的PV,不用管理员手动创建。

以下是StorageClass/PVC的关系图,

下面通过NFS来介绍StorageClass/PVC的使用,

搭建K8S和NFS参考上面内容。

StorageClass通过Provisioner来创建PV,Provisioner有很多,不同的存储类别有不同的实现,是第三方的组件。Provisioner要创建PV,意味着其能访问K8S集群,需要为其分配权限。

创建RBAC(Role Based Access Control),rbac.yaml,

  1. apiVersion: v1
  2. kind: Namespace
  3. metadata:
  4. name: nginxns
  5. ---
  6. apiVersion: v1
  7. kind: ServiceAccount
  8. metadata:
  9. name: nfs-client-provisioner
  10. namespace: nginxns
  11. ---
  12. kind: ClusterRole
  13. apiVersion: rbac.authorization.k8s.io/v1
  14. metadata:
  15. name: nfs-client-provisioner-runner
  16. rules:
  17. - apiGroups: [""]
  18. resources: ["persistentvolumes"]
  19. verbs: ["get", "list", "watch", "create", "delete"]
  20. - apiGroups: [""]
  21. resources: ["persistentvolumeclaims"]
  22. verbs: ["get", "list", "watch", "update"]
  23. - apiGroups: ["storage.k8s.io"]
  24. resources: ["storageclasses"]
  25. verbs: ["get", "list", "watch"]
  26. - apiGroups: [""]
  27. resources: ["events"]
  28. verbs: ["create", "update", "patch"]
  29. ---
  30. kind: ClusterRoleBinding
  31. apiVersion: rbac.authorization.k8s.io/v1
  32. metadata:
  33. name: managed-run-nfs-client-provisioner
  34. subjects:
  35. - kind: ServiceAccount
  36. name: nfs-client-provisioner
  37. namespace: nginxns
  38. roleRef:
  39. kind: ClusterRole
  40. name: nfs-client-provisioner-runner
  41. apiGroup: rbac.authorization.k8s.io
  42. ---
  43. kind: Role
  44. apiVersion: rbac.authorization.k8s.io/v1
  45. metadata:
  46. name: leader-locking-nfs-client-provisioner
  47. namespace: nginxns
  48. rules:
  49. - apiGroups: [""]
  50. resources: ["endpoints"]
  51. verbs: ["get", "list", "watch", "create", "update", "patch"]
  52. ---
  53. kind: RoleBinding
  54. apiVersion: rbac.authorization.k8s.io/v1
  55. metadata:
  56. name: leader-locking-nfs-client-provisioner
  57. namespace: nginxns
  58. subjects:
  59. - kind: ServiceAccount
  60. name: nfs-client-provisioner
  61. # replace with namespace where provisioner is deployed
  62. namespace: nginxns
  63. roleRef:
  64. kind: Role
  65. name: leader-locking-nfs-client-provisioner
  66. apiGroup: rbac.authorization.k8s.io
  1. sunny@xxxx:~/k8s/storage/storageclass$ kubectl apply -f rbac.yaml
  2. namespace/nginxns created
  3. serviceaccount/nfs-client-provisioner created
  4. clusterrole.rbac.authorization.k8s.io/nfs-client-provisioner-runner created
  5. clusterrolebinding.rbac.authorization.k8s.io/managed-run-nfs-client-provisioner created
  6. role.rbac.authorization.k8s.io/leader-locking-nfs-client-provisioner created
  7. rolebinding.rbac.authorization.k8s.io/leader-locking-nfs-client-provisioner created

创建Storage Class, storage_class.yaml,这里会定义storage class名称,在创建PVC的时候会使用,以及与之关联的provisioner,

  1. apiVersion: storage.k8s.io/v1
  2. kind: StorageClass
  3. metadata:
  4. name: managed-nfs-storage
  5. namespace: nginxns
  6. provisioner: provisioner-nfs-storage
  7. parameters:
  8. archiveOnDelete: "false"
  1. sunny@xxx:~/k8s/storage/storageclass$ kubectl apply -f storage_class.yaml
  2. storageclass.storage.k8s.io/managed-nfs-storage created
  3. sunny@r05u30-nex-wvie-spr-cd:~/k8s/storage/storageclass$

创建 NFS provisioner,nfs-provisioner.yaml,这里面会指定provisioner名称,NFS地址,路径,serviceAccountName等,

  1. apiVersion: apps/v1
  2. kind: Deployment
  3. metadata:
  4. name: nfs-client-provisioner
  5. labels:
  6. app: nfs-client-provisioner
  7. namespace: nginxns
  8. spec:
  9. replicas: 1
  10. selector:
  11. matchLabels:
  12. app: nfs-client-provisioner
  13. strategy:
  14. type: Recreate
  15. selector:
  16. matchLabels:
  17. app: nfs-client-provisioner
  18. template:
  19. metadata:
  20. labels:
  21. app: nfs-client-provisioner
  22. spec:
  23. serviceAccountName: nfs-client-provisioner
  24. containers:
  25. - name: nfs-client-provisioner
  26. #image: quay.io/external_storage/nfs-client-provisioner:latest
  27. image: gcr.io/k8s-staging-sig-storage/nfs-subdir-external-provisioner:v4.0.0
  28. volumeMounts:
  29. - name: nfs-client-root
  30. mountPath: /persistentvolumes
  31. env:
  32. - name: PROVISIONER_NAME
  33. value: provisioner-nfs-storage
  34. - name: NFS_SERVER
  35. value: 192.168.126.16
  36. - name: NFS_PATH
  37. value: /home/sunny/nfs/root
  38. volumes:
  39. - name: nfs-client-root
  40. nfs:
  41. server: 192.168.126.16
  42. path: /home/sunny/nfs/root
  1. sunny@xxx:~/k8s/storage/storageclass$ kubectl apply -f nfs-provisioner.yaml
  2. deployment.apps/nfs-client-provisioner created

创建PVC,pvc.yaml,在这里会指定storageClassName,

  1. kind: PersistentVolumeClaim
  2. apiVersion: v1
  3. metadata:
  4. name: test-claim
  5. namespace: nginxns
  6. spec:
  7. accessModes:
  8. - ReadWriteMany
  9. storageClassName: managed-nfs-storage
  10. resources:
  11. requests:
  12. storage: 5Mi
  1. sunny@xxx:~/k8s/storage/storageclass$ kubectl apply -f pvc.yaml
  2. persistentvolumeclaim/test-claim created
  3. sunny@xxx:~/k8s/storage/storageclass$ kubectl get pvc -n nginxns
  4. NAME STATUS VOLUME CAPACITY ACCESS MODES STORAGECLASS AGE
  5. test-claim Bound pvc-03905a65-efe4-4a5d-a10c-f5b50f026c4c 5Mi RWX managed-nfs-storage 12s
  6. sunny@xxx:~/k8s/storage/storageclass$ kubectl get pv -n nginxns
  7. NAME CAPACITY ACCESS MODES RECLAIM POLICY STATUS CLAIM STORAGECLASS REASON AGE
  8. pvc-03905a65-efe4-4a5d-a10c-f5b50f026c4c 5Mi RWX Delete Bound nginxns/test-claim managed-nfs-storage 41s

创建完PVC以后,可以看到pv也自动创建好了,且NFS根目录下也创建了相关的供PV使用的目录,在该目录中增加index.html,

  1. sunny@xxx:~/nfs/root$ pwd
  2. /home/sunny/nfs/root
  3. sunny@xxx:~/nfs/root$ ll
  4. total 0
  5. drwxrwxrwx 3 sunny sunny 73 Mar 21 02:30 ./
  6. drwxrwxrwx 3 sunny sunny 18 Mar 20 02:06 ../
  7. drwxrwxrwx 2 nobody nogroup 6 Mar 21 02:30 nginxns-test-claim-pvc-03905a65-efe4-4a5d-a10c-f5b50f026c4c/
  8. sunny@xxx:~/nfs/root$ cd nginxns-test-claim-pvc-03905a65-efe4-4a5d-a10c-f5b50f026c4c/
  9. sunny@xxx:~/nfs/root/nginxns-test-claim-pvc-03905a65-efe4-4a5d-a10c-f5b50f026c4c$ cat index.html
  10. Hello Storage Class.

创建Nginx,nginx.yaml,

  1. apiVersion: apps/v1
  2. kind: Deployment
  3. metadata:
  4. name: nginx-deployment-storageclass
  5. namespace: nginxns
  6. spec:
  7. selector:
  8. matchLabels:
  9. app: nginx-storageclass
  10. replicas: 3
  11. template:
  12. metadata:
  13. labels:
  14. app: nginx-storageclass
  15. spec:
  16. containers:
  17. - name: nginx
  18. image: nginx:1.14.2
  19. imagePullPolicy: IfNotPresent
  20. volumeMounts:
  21. - name: html
  22. mountPath: /usr/share/nginx/html
  23. ports:
  24. - containerPort: 80
  25. volumes:
  26. - name: html
  27. persistentVolumeClaim:
  28. claimName: test-claim
  1. sunny@xxx:~/k8s/storage/storageclass$ kubectl apply -f nginx.yaml
  2. deployment.apps/nginx-deployment-storageclass created
  3. sunny@xxx:~/k8s/storage/storageclass$ kubectl get pod -n nginxns -o wide
  4. NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES
  5. nfs-client-provisioner-7c5d5f57b-shrd8 1/1 Running 0 37m 10.244.96.164 r05u36-nex-wvie-spr-cd <none> <none>
  6. nginx-deployment-storageclass-86bb9496f8-5mpvg 1/1 Running 0 18s 10.244.2.221 r05u30-nex-wvie-spr-cd <none> <none>
  7. nginx-deployment-storageclass-86bb9496f8-c8zbp 1/1 Running 0 18s 10.244.96.166 r05u36-nex-wvie-spr-cd <none> <none>
  8. nginx-deployment-storageclass-86bb9496f8-z4sxm 1/1 Running 0 18s 10.244.96.165 r05u36-nex-wvie-spr-cd <none> <none>

访问Pod,

  1. sunny@xxx:~/k8s/storage/storageclass$ wget 10.244.2.221
  2. --2024-03-21 03:06:12-- http://10.244.2.221/
  3. Connecting to 10.244.2.221:80... connected.
  4. HTTP request sent, awaiting response... 200 OK
  5. Length: 21 [text/html]
  6. Saving to: ‘index.html’
  7. index.html 100%[===========================================================================================================>] 21 --.-KB/s in 0s
  8. 2024-03-21 03:06:12 (53.6 KB/s) - ‘index.html’ saved [21/21]
  9. sunny@xxx:~/k8s/storage/storageclass$ cat index.html
  10. Hello Storage Class.

StorageClass确实能自动创建PV,减少管理员准备PV的工作,但是我们也发现StorageClass的配置多了不少,需要定义RBAC,StorageClass等资源对象,需要创建provisioner这个额外的Pod等。所以,如果在一些复杂场景下需要频繁创建和维护PV,我们可以使用StorageClass + PVC的模来使用存储,如果在一些简单的场景下只需要一些固定的PV,我们可以使用PV + PVC的模式来使用存储。

CSI

在 Kubernetes 中,存储插件的开发主要有以下几种方式:

  1. CSI插件:Container Storage Interface (CSI) 是 Kubernetes 的标准插件接口,是全新的插件方案,插件和驱动调用通过grpc协议,功能丰富,支持存储卷动态提供、快速、动态扩容等等。
  2. FlexVolume插件:FlexVolume 是 Kubernetes 的早期存储插件接口之一,它提供了一个简单的接口,但局限性却很大,用于将存储驱动程序接入到 Kubernetes 中。通过实现 FlexVolume 接口,可以将各种存储系统接入到 Kubernetes 集群中,包括 NFS、GlusterFS、Ceph 等等。
  3. in-tree插件:in-tree 存储插件是 Kubernetes 的早期存储插件接口之一,它将存储驱动程序嵌入到 Kubernetes 主体代码库中。in-tree 插件可以实现对本地存储、NFS、iSCSI 等存储系统的支持。不过,由于 in-tree 插件需要嵌入到 Kubernetes 主体代码库中,因此对于插件开发者而言,维护成本较高,并且需要适应 Kubernetes 主体代码库的版本变化。

CSI 全称 Container Storage Interface,是容器编排系统(CO)如k8s等扩展容器存储的一种实现方式,基于gRPC实现,是当前主流的存储扩展方式。为什么会使用CSI?首先,CSI 可以满足不同编排系统的需求,除了k8s,还可以比如 Mesos,Swarm。其次,CSI 是容器化部署,可以减少环境依赖,增强安全性,丰富插件的功能。CSI 的设计思想,把插件的职责从之前讲的 “两阶段处理”,扩展成了 Provision、Attach 和 Mount 三个阶段。

CSI 主要包含两个部分:CSI Controller Server 与 CSI Node Server。

  • Controller Server 是控制端的功能,负责将卷与具体节点进行配置,每个集群中只需要有一个Controller提供服务。
  • Node Server 负责k8s负载节点上的卷配置,每个节点都有一个Node提供服务。

CSI部署架构,

参考:

CSI规范

k8s-编写CSI插件

CSI 插件开发简介

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/羊村懒王/article/detail/296063
推荐阅读
相关标签
  

闽ICP备14008679号