美文网首页操作系统k8s
k8s 持久化存储卷

k8s 持久化存储卷

作者: 菜头_355f | 来源:发表于2021-05-25 09:25 被阅读0次

    在 k8s 中为什么要做持久化存储?

    在 k8s 中部署的应用都是以 pod 容器的形式运行的,假如我们部署 MySQL、Redis 等数据库,需

    要对这些数据库产生的数据做备份。因为 Pod 是有生命周期的,如果 pod 不挂载数据卷,那 pod 被删 除或重启后这些数据会随之消失,如果想要长久的保留这些数据就要用到 pod 数据持久化存储。


    k8s 持久化存储方案:emptyDir

    kubectl explain pods.spec.volumes

    常用如下

    emptyDir

    hostPath

    nfs persistentVolumeClaim glusterfs

    cephfs configMap secret

    我们想要使用存储卷,需要经历如下步骤

    1、定义 pod 的 volume,这个 volume 指明它要关联到哪个存储上的 

    2、在容器中要使用 volume mounts 挂载对应的存储

      经过以上两步才能正确的使用存储卷

    emptyDir 类型的 Volume 是在 Pod 分配到 Node 上时被创建,Kubernetes 会在 Node 上自动 分配一个目录,因此无需指定宿主机 Node 上对应的目录文件。 这个目录的初始内容为空,当 Pod 从 Node 上移除时,emptyDir 中的数据会被永久删除。emptyDir Volume 主要用于某些应用程序无需永 久保存的临时目录,多个容器的共享目录等。

    #创建一个 pod,挂载临时目录 emptyDir

    cat emptydir.yaml

    apiVersion: v1

    kind: Pod

    metadata:

      name: pod-empty

    spec:

      containers:

      - name: container-empty

        image: nginx

        volumeMounts:

        - mountPath: /cache

          name: cache-volume

      volumes:

      - emptyDir:

          {}

        name: cache-volume

    kubectl apply -f emptydir.yaml

    kubectl get pods -o wide | grep empty

    #查看 pod 的 uid

    kubectl get pods pod-empty -o yaml | grep uid

    uid: ff865494-205a-4318-b8bc-072de1d8ea6f

    工作节点看挂载目录

    由上可知,临时目录在本地的/var/lib/kubelet/pods/ff865494-205a-4318-b8bc-072de1d8ea6f/volumes/kubernetes.io~empty-dir/cache-volume/下

    k8s 持久化存储方案:hostPath

    hostPath Volume 是指 Pod 挂载宿主机上的目录或文件。 hostPath Volume 使得容器可以使用 宿主机的文件系统进行存储,hostpath(宿主机路径):节点级别的存储卷,在 pod 被删除,这个存储 卷还是存在的,不会被删除,所以只要同一个 pod 被调度到同一个节点上来,在 pod 被删除重新被调度 到这个节点之后,对应的数据依然是存在的。

    kubectl explain pods.spec.volumes.hostPath

    FIELDS:

    path -required-

    type

    tomcat.tar.gz  上传到工作节点

    #创建一个 pod,挂载 hostPath 存储卷

    如果文档里有#号注释复制的时候会乱.  vim打开的时候加:set paste就不会乱了

    ,

    cat hostpath.yaml

     apiVersion: v1

    kind: Pod

    metadata:

      name: test-hostpath

    spec:

      containers:

      - image: nginx

        name: test-nginx

        volumeMounts:

        - mountPath: /test-nginx

          name: test-volume

      - image: tomcat

        name: test-tomcat

        volumeMounts:

        - mountPath: /test-tomcat        #挂载到容器内目录

          name: test-volume

      volumes:

      - name: test-volume

        hostPath:

          path: /data1                        #挂载到节点目录

          type: DirectoryOrCreate    

    # DirectoryOrCreate 表示本地有/data1 目录,就用本地的,本地没有就会在 pod 调度到的节点 自动创建一个

     kubectl apply -f hostpath.yaml

    #查看 pod 调度到了哪个物理节点

    kubectl get pods -o wide | grep hostpath

    在 god62 上的/data1 下创建一个目录

    # mkdir -p /data1/god

    #测试存储卷是否可以正常使用,登录到 nginx 容器

    kubectl exec -it test-hostpath -c test-nginx -- /bin/bash

    #测试存储卷是否可以正常使用,登录到 tomcat 容器

    kubectl exec -it test-hostpath -c test-tomcat -- /bin/bash root@test-hostpath:/usr/local/tomcat# cd /test-tomcat/ #/test-tomcat/目录存在,说明已经把宿主机目录挂载到了容器里 root@test-hostpath:/test-tomcat# ls

    #通过上面测试可以看到,同一个 pod 里的 test-nginx 和 test-tomcat 这两个容器是共享存储卷 的。

    hostpath 存储卷缺点:

    单节点

    pod 删除之后重新创建必须调度到同一个 node 节点,数据才不会丢失

    可以用分布式存储: nfs,cephfs,glusterfs

    k8s 持久化存储方案:NFS


    hostPath 存储,存在单点故障,pod 挂载 hostPath 时,只有调度到同一个节点,数据 才不会丢失。那可以使用 nfs 作为持久化存储。


    1、搭建 nfs 服务

    #以 k8s 的控制节点作为 NFS 服务端

    yum install nfs-utils -y 

    #在宿主机创建 NFS 需要的共享目录

     mkdir /data/volumes -pv 

    mkdir: created directory ‘/data’

    mkdir: created directory ‘/data/volumes’

    #配置 nfs 共享服务器上的/data/volumes 目录 

    # systemctl start nfs 

    # vim /etc/exports 

    /data/volumes  192.168.1.0/24(rw,no_root_squash) 

    #no_root_squash: 用户具有根目录的完全管理访问权限 #使 NFS 配置生效

    # exportfs -arv

    exporting 192.168.172.0/24:/data/volumes

    ]# service nfs start

    Redirecting to /bin/systemctl start nfs.service 

    #设置成开机自启动

    ]# systemctl enable nfs

    #查看 nfs 是否启动成功

    systemctl status nfs Active: active

    看到 nfs 是 active,说明 nfs 正常启动了 #god62 和 god64 上也安装 nfs 驱动 

    yum install nfs-utils -y

    service nfs start && systemctl enable nfs

    在 god62 上手动挂载试试:

    mount -t nfs 192.168.172.63:/data/volumes /data1

    df -h 看一哈

    #手动卸载:

     umount /data1/

    #创建 Pod,挂载 NFS 共享出来的目录

    cat nfs.yaml

    apiVersion: v1

    kind: Pod

    metadata:

      name: test-nfs-volume

    spec:

      containers:

      - name: test-nfs

        image: nginx

        ports:

        - containerPort: 80

          protocol: TCP

        volumeMounts:

        - mountPath: /usr/share/nginx/html

          name: nfs-volumes

      volumes:

      - name: nfs-volumes

        nfs:

          server: 192.168.172.163

          path:  /data/volumes

    注:path: /data/volumes #nfs 的共享目录

    server:192.168.172.63 是 god63 机器的 ip,这个是安装 nfs 服务的地址

    kubectl get pods -o wide | grep nfs

    test-nfs-volume        1/1    Running    0          59s    10.244.187.124  god62  <none>          <no

    #登录到 nfs 服务器(master),在共享目录创建一个 index.html

    cd /data/volumes/

    echo "hello,welcome to pod" > inde.html

    curl 10.244.187.124

    hello,welcome to pod

    #通过上面可以看到,在共享目录创建的 index.html 已经被 pod 挂载了

    #登录到 pod 验证下

    # kubectl exec -it test-nfs-volume -- /bin/bash root@test-nfs-volume:/# cat /usr/share/nginx/html/index.html

    hello, Welcome to pod

     #上面说明挂载 nfs 存储卷成功了,nfs 支持多个客户端挂载,可以创建多个 pod,挂载同一个 nfs 服务器共享出来的目录;但是 nfs 如果宕机了,数据也就丢失了,所以需要使用分布式存储,常见的分布 式存储有 glusterfs 和 cephfs

    k8s 持久化存储方案: PVC

    参考官网:https://kubernetes.io/docs/concepts/storage/persistent-volumes/#access-modes

    k8s PV 是什么? 

    PersistentVolume(PV)是群集中的一块存储,由管理员配置或使用存储类动态配置。 它是集群中的资源,就像 pod 是 k8s 集群资源一样。 PV 是容量插件,如 Volumes,其生命周期独立于使用 PV 的任何单个 pod。

    k8s PVC 是什么?

    PersistentVolumeClaim(PVC)是一个持久化存储卷,我们在创建 pod 时可以定义这个类型的存储卷。 它类似于一个 pod。 Pod 消耗节点资源,PVC 消耗 PV 资源。 Pod 可以请求特定级别的资源 (CPU 和内存)。 pvc 在申请 pv 的时候也可以请求特定的大小和访问模式(例如,可以一次读写或多次 只读)。

    k8s PVC 和 PV 工作原理

    PV 是群集中的资源。 PVC 是对这些资源的请求。

     PV 和 PVC 之间的相互作用遵循以下生命周期:

    (1)pv 的供应方式 可以通过两种方式配置 PV:静态或动态。

    静态的:

    集群管理员创建了许多 PV。它们包含可供群集用户使用的实际存储的详细信息。它们存在于Kubernetes API 中,可供使用。

    动态的:

    当管理员创建的静态 PV 都不匹配用户的 PersistentVolumeClaim 时,群集可能会尝试为 PVC 专门动态配置卷。此配置基于 StorageClasses,PVC 必须请求存储类,管理员必须创建并配置该类,以便 进行动态配置。

    2)绑定

    用户创建 

    pvc 并指定需要的资源和访问模式。在找到可用 pv 之前,pvc 会保持未绑定状态

    3)使用

    a)需要找一个存储服务器,把它划分成多个存储空间;

    b)k8s 管理员可以把这些存储空间定义成多个 pv;

    c)在 pod 中使用 pvc 类型的存储卷之前需要先创建 pvc,通过定义需要使用的 pv 的大小和对应 的访问模式,找到合适的 pv;

    d)pvc 被创建之后,就可以当成存储卷来使用了,我们在定义 pod 时就可以使用这个 pvc 的存 储卷

    e)pvc 和 pv 它们是一一对应的关系,pv 如果被 pvc 绑定了,就不能被其他 pvc 使用了; f)我们在创建 pvc 的时候,应该确保和底下的 pv 能绑定,如果没有合适的 pv,那么 pvc 就会 处于 pending 状态。

    4)回收策略

    当我们创建 pod 时如果使用 pvc 做为存储卷,那么它会和 pv 绑定,当删除 pod,pvc 和 pv 绑定

    就会解除,解除之后和 pvc 绑定的 pv 卷里的数据需要怎么处理,目前,卷可以保留,回收或删除: Retain

    Recycle (不推荐使用,1.15 可能被废弃了) Delete

    1、Retain

    当删除 pvc 的时候,pv 仍然存在,处于 released 状态,但是它不能被其他 pvc 绑定使用,里面的 数据还是存在的,当我们下次再使用的时候,数据还是存在的,这个是默认的回收策略

    Delete

    删除 pvc 时即会从 Kubernetes 中移除 PV,也会从相关的外部设施中删除存储资产

    创建 pod,使用 pvc 作为持久化存储卷 

    1、创建 nfs 共享目录

    #在宿主机创建 NFS 需要的共享目录

    # mkdir /data/volume_test/v{1,2,3,4,5,6,7,8,9,10} -p

    #配置 nfs 共享宿主机上的/data/volume_test/v1..v10 目录

    cat /etc/exports

    /data/volumes 192.168.172.0/24(rw,no_root_squash)

    /data/volumes 192.168.172.0/24(rw,no_root_squash)

    /data/volume_test/v1 192.168.172.0/24(rw,no_root_squash)

    /data/volume_test/v2 192.168.172.0/24(rw,no_root_squash)

    /data/volume_test/v3 192.168.172.0/24(rw,no_root_squash)

    /data/volume_test/v4 192.168.172.0/24(rw,no_root_squash)

    /data/volume_test/v5 192.168.172.0/24(rw,no_root_squash)

    /data/volume_test/v6 192.168.172.0/24(rw,no_root_squash)

    /data/volume_test/v7 192.168.172.0/24(rw,no_root_squash)

    /data/volume_test/v8 192.168.172.0/24(rw,no_root_squash)

    /data/volume_test/v9 192.168.172.0/24(rw,no_root_squash)

    /data/volume_test/v10 192.168.172.0/24(rw,no_root_squash)

    # 冒号替换一下保存

    :1,$s/192.168.1.0/192.168.172.0/g

    #重新加载配置,使配置成效

    exportfs -arv

    systemctl restart nfs

    #查看定义 pv 需要的字段

    kubectl explain pv.spec.nfs

    path <string> -required-

    readOnly <boolean>

    server <string> -required-

    3、创建 pv

    存取模式

    PersistentVolume可以通过资源提供者支持的任何方式安装在主机上。如下表所示,提供商将具有不同的功能,并且每个PV的访问模式都将设置为该特定卷支持的特定模式。例如,NFS可以支持多个读/写客户端,但是特定的NFS PV可能以只读方式在服务器上导出。每个PV都有自己的一组访问模式,用于描述该特定PV的功能。

    访问方式为:

    ReadWriteOnce-可以通过单个节点以读写方式安装该卷

    ReadOnlyMany-该卷可以被许多节点只读挂载

    ReadWriteMany-该卷可以被许多节点读写安装

    在CLI中,访问模式缩写为:

    RWO-ReadWriteOnce

    ROX-ReadOnlyMany

    RWX-ReadWriteMany

    重要的!即使一次卷支持多个卷,也只能一次使用一种访问模式挂载该卷。例如,GCEPersistentDisk可以由单个节点安装为ReadWriteOnce,也可以由多个节点安装为ReadOnlyMany,但不能同时安装。

    cat pv.yaml

    apiVersion: v1

    kind: PersistentVolume

    metadata:

      name: v1

    spec:

      capacity:

        storage: 1Gi    #pv的存储空间容量 

      accessModes: ["ReadWriteOnce"]

      nfs:

        path: /data/volume_test/v1 #把nfs的存储空间创建成pv

        server: 192.168.172.163    #nfs服务器的地址

    ---

    apiVersion: v1

    kind: PersistentVolume

    metadata:

      name:  v2

    spec:

      capacity:

          storage: 2Gi

      accessModes: ["ReadWriteMany"]

      nfs:

        path: /data/volume_test/v2

        server: 192.168.40.130

    ---

    apiVersion: v1

    kind: PersistentVolume

    metadata:

      name:  v3

    spec:

      capacity:

          storage: 3Gi

      accessModes: ["ReadOnlyMany"]

      nfs:

        path: /data/volume_test/v3

        server: 192.168.40.130

    ---

    apiVersion: v1

    kind: PersistentVolume

    metadata:

      name:  v4

    spec:

      capacity:

          storage: 4Gi

      accessModes: ["ReadWriteOnce","ReadWriteMany"]

      nfs:

        path: /data/volume_test/v4

        server: 192.168.40.130

    ---

    apiVersion: v1

    kind: PersistentVolume

    metadata:

      name:  v5

    spec:

      capacity:

          storage: 5Gi

      accessModes: ["ReadWriteOnce","ReadWriteMany"]

      nfs:

        path: /data/volume_test/v5

        server: 192.168.40.130

    ---

    apiVersion: v1

    kind: PersistentVolume

    metadata:

      name:  v6

    spec:

      capacity:

          storage: 6Gi

      accessModes: ["ReadWriteOnce","ReadWriteMany"]

      nfs:

        path: /data/volume_test/v6

        server: 192.168.40.130

    ---

    apiVersion: v1

    kind: PersistentVolume

    metadata:

      name:  v7

    spec:

      capacity:

          storage: 7Gi

      accessModes: ["ReadWriteOnce","ReadWriteMany"]

      nfs:

        path: /data/volume_test/v7

        server: 192.168.40.130

    ---

    apiVersion: v1

    kind: PersistentVolume

    metadata:

      name:  v8

    spec:

      capacity:

          storage: 8Gi

      accessModes: ["ReadWriteOnce","ReadWriteMany"]

      nfs:

        path: /data/volume_test/v8

        server: 192.168.40.130

    ---

    apiVersion: v1

    kind: PersistentVolume

    metadata:

      name:  v9

    spec:

      capacity:

          storage: 9Gi

      accessModes: ["ReadWriteOnce","ReadWriteMany"]

      nfs:

        path: /data/volume_test/v9

        server: 192.168.172.163

    ---

    apiVersion: v1

    kind: PersistentVolume

    metadata:

      name:  v10

    spec:

      capacity:    #pv的存储空间容量

          storage: 10Gi

      accessModes: ["ReadWriteOnce","ReadWriteMany"]

      nfs:

        path: /data/volume_test/v10  #把nfs的存储空间创建成pv

        server: 192.168.172.163

    ---

    #更新资源清单文件

    ]# kubectl apply -f pv.yaml

    #查看 pv 资源

    #STATUS 是 Available,表示 pv 是可用的

    创建 pvc,和符合条件的 pv 绑定

    apiVersion: v1

    kind: PersistentVolumeClaim

    metadata:

      name: my-pvc

    spec:

      accessModes: ["ReadWriteMany"]

      resources:

        requests:

          storage: 2Gi

    kubectl apply -f pvc.yaml

    #查看 pv 和 pvc

    # kubectl get pv

    #STATUS是Bound,表示这个pv已经被my-pvc绑定了

    kubectl get pvc

    NAME    STATUS  VOLUME  CAPACITY  ACCESS MODES  STORAGECLASS  AGE

    my-pvc  Bound         v2      2Gi        RWX                          2m25s

    #. pvc 的名字-绑定到 pv-绑定的是 v2 这个 pv-pvc 可使用的容量是 2G#

    5、创建 pod,挂载 pvc

    cat pod_pvc.yaml

    apiVersion: v1

    kind: Pod

    metadata:

      name: pod-pvc

    spec:   

      containers:

      - name: nginx

        image: nginx

        volumeMounts:

        - name: nginx-html

          mountPath: /usr/share/nginx/html

      volumes:

      - name: nginx-html

        persistentVolumeClaim:

          claimName: my-pvc

    kubectl get pods | grep pod-pvc

    pod-pvc                1/1    Running    0          71s

    #通过上面可以看到 pod 处于 running 状态,正常运行

    注:使用 pvc 和 pv 的注意事项

    1、我们每次创建 pvc 的时候,需要事先有划分好的 pv,这样可能不方便,那么可以在创建 pvc 的 时候直接动态创建一个 pv 这个存储类,pv 事先是不存在的

    2、pvc 和 pv 绑定,如果使用默认的回收策略 retain,那么删除 pvc 之后,pv 会处于 released 状 态,我们想要继续使用这个 pv,需要手动删除 pv,kubectl delete pv pv_name,删除 pv,不会删除 pv 里的数据,当我们重新创建 pvc 时还会和这个最匹配的 pv 绑定,数据还是原来数据,不会丢失。

    k8s 存储类:storageclass


    上面介绍的 PV 和 PVC 模式都是需要先创建好 PV,然后定义好 PVC 和 pv 进行一对一的 Bond, 但是如果 PVC 请求成千上万,那么就需要创建成千上万的 PV,对于运维人员来说维护成本很高, Kubernetes 提供一种自动创建 PV 的机制,叫 StorageClass,它的作用就是创建 PV 的模板。k8s 集 群管理员通过创建 storageclass 可以动态生成一个存储卷 pv 供 k8s pvc 使用。

    每个 StorageClass 都包含字段 provisioner,parameters 和 reclaimPolicy。

    具体来说,StorageClass 会定义以下两部分:

    1、PV 的属性 ,比如存储的大小、类型等;

    2、创建这种 PV 需要使用到的存储插件,比如 Ceph、NFS 等

    有了这两部分信息,Kubernetes 就能够根据用户提交的 PVC,找到对应的 StorageClass,然后 Kubernetes 就会调用 StorageClass 声明的存储插件,创建出需要的 PV。

    kubectl explain storageclass

    allowVolumeExpansion <boolean>

    allowedTopologies <[]Object>

    mountOptions <[]string>

    parameters <map[string]string>

    provisioner <string> -required-

    reclaimPolicy <string>

    volumeBindingMode <string>

    provisioner:供应商,storageclass 需要有一个供应者,用来确定我们使用什么样的存储来创 建 pv,常见的 provisioner 如下

    (https://kubernetes.io/zh/docs/concepts/storage/storage-classes/):

    provisioner 既可以由内部供应商提供,也可以由外部供应商提供,如果是外部供应商可以参考 https://github.com/kubernetes-incubator/external-storage/下提供的方法创建。

    以 NFS 为例,要想使用 NFS,我们需要一个 nfs-client 的自动装载程序,称之为 provisioner,这 个程序会使用我们已经配置好的 NFS 服务器自动创建持久卷,也就是自动帮我们创建 PV。

    reclaimPolicy:回收策略

    allowVolumeExpansion:允许卷扩展,PersistentVolume 可以配置成可扩展。将此功能设置为

    true 时,允许用户通过编辑相应的 PVC 对象来调整卷大小。当基础存储类的 allowVolumeExpansion 字段设置为 true 时,以下类型的卷支持卷扩展。

    注意:此功能仅用于扩容卷,不能用于缩小卷。

    安装 nfs provisioner,用于配合存储类动态生成 pv

    #把 nfs-provisioner-v1.tar.gz 工作节点上上,手动解压

    1、创建运行 nfs-provisioner 需要的 sa 账号

    cat serviceaccount.yaml

    apiVersion: v1

    kind: ServiceAccount

    metadata:

      name: nfs-provisioner

    kubectl apply -f serviceaccount.yaml

    what.   sa?

    sa 的全称是 serviceaccount。

    serviceaccount 是为了方便 Pod 里面的进程调用 Kubernetes API 或其他外部服务而设计的。指定了 serviceaccount 之后,我们把 pod 创建出来了,我们在使用这个 pod 时,这个 pod 就 有了我们指定的账户的权限了。

    2、对 sa 授权

    #kubectl create clusterrolebinding nfs-provisioner --clusterrole=cluster-admin --serviceaccount=default:nfs-provisioner

    3、k8s1.20 版本通过 nfs provisioner 动态生成 pv 会报错

    Unexpected error getting claim reference to claim "default/test-claim1": selfLink was empty, can't make reference,报错原因是 1.20 版本仅用了 selfLink,解决方法如下;

    vim /etc/kubernetes/manifests/kube-apiserver.yaml

    在这里:

    spec:

    containers: - command:

    - kube-apiserver 添加这一行:

    - --feature-gates=RemoveSelfLink=false

    然后应用它,即可:

    kubectl apply -f /etc/kubernetes/manifests/kube-apiserver.yaml

    二进制安装的 k8s,按如下修改:

    vi /etc/systemd/system/kube-apiserver.service

    --feature-gates=RemoveSelfLink=false \

    --v=2

    systemctl datemon-reload

    systemctl restart apiserver

    4、安装 nfs-provisioner 程序

    # mkdir /data/nfs_pro -p

    #把/data/nfs_pro 变成 nfs 共享的目录

    cat /etc/exports

    /data/nfs_pro 192.168.172.0/24(rw,no_root_squash)

    #exportfs -arv

    systemctl restart nfs

    cat nfs-deployment.yaml

    kind: Deployment

    apiVersion: apps/v1

    metadata:

      name: nfs-provisioner

    spec:

      selector:

        matchLabels:

          app: nfs-provisioner

      replicas: 1

      strategy:

        type: Recreate

      template:

        metadata:

          labels:

            app: nfs-provisioner

        spec:

          serviceAccount: nfs-provisioner

          containers:

            - name: nfs-provisioner

              image: registry.cn-hangzhou.aliyuncs.com/god/nfs-client-provisioner:v1

              volumeMounts:

                - name: nfs-client-root

                  mountPath: /persistentvolumes

              env:

                - name: PROVISIONER_NAME

                  value: example.com/nfs           #提供人表示提供人的类型。

                - name: NFS_SERVER

                  value: 192.168.172.163

                - name: NFS_PATH

                  value: /data/nfs_pro/

          volumes:

            - name: nfs-client-root

              nfs:

                server: 192.168.172.163

                path: /data/nfs_pro/

    kubectl apply -f nfs-deployment.yaml

    1,$s/文档内容/替换内容/g

    #查看 nfs-provisioner 是否正常运行

    kubectl get pods | grep nfs

    nfs-provisioner-6cb84f5d49-nwvtj  1/1    Running    0          22s

    创建 storageclass,动态供给 pv

    cat nfs-storageclass.yaml

    apiVersion: storage.k8s.io/v1

    kind:  StorageClass

    metadata:

      name: nfs

    provisioner: example.com/nfs

    kubectl apply -f nfs-storageclass.yaml

    #查看 storageclass 是否创建成功

    kubectl get storageclass

    NAME  PROVISIONER      RECLAIMPOLICY  VOLUMEBINDINGMODE  ALLOWVOLUMEEXPANSION  AGE

    nfs    example.com/nfs  Delete          Immediate          false                  2s

    注意:provisioner 处写的 example.com/nfs 应该跟安装 nfs provisioner 时候的 env 下的 PROVISIONER_NAME 的 value 值保持一致,如下:

    env:

    - name: PROVISIONER_NAME 

       value: example.com/nfs

    创建 pvc,通过 storageclass 动态生成 pv

    cat claim.yaml

    kind: PersistentVolumeClaim

    apiVersion: v1

    metadata:

      name: test-claim1

      annotations:

        volume.beta.kubernetes.io/storage-class: "nfs"

    spec:

      accessModes:  ["ReadWriteMany"]

      resources:

        requests:

          storage: 1Gi

      storageClassName:  nfs

    kubectl apply -f claim.yaml

    #查看是否动态生成了 pv,pvc 是否创建成功,并和 pv 绑定

    kubectl get pvc

    NAME          STATUS  VOLUME                                    CAPACITY  ACCESS MODES  STORAGECLASS  AGE

    my-pvc        Bound    v2                                        2Gi        RWX                          22h

    test-claim1  Bound    pvc-b03288b7-13f8-4e6d-aba7-ff6d23a5c500  1Gi        RWX            nfs            7m16s

    #通过上面可以看到 test-claim1 的 pvc 已经成功创建了,绑定的 pv 是 pvc-b03288b7-13f8-4e6d-aba7-ff6d23a5c500,这个 pv 是由 storageclass 调用 nfs provisioner 自动生成的。

    总结:

    1、供应商:创建一个 nfs provisioner

    2、创建 storageclass,storageclass 指定刚才创建的供应商 

    3、创建 pvc,这个 pvc 指定 storageclass

    创建 pod,挂载 storageclass 动态生成的 pvc:test-claim1

    cat read-pod.yaml

    apiVersion: v1

    kind: Pod

    metadata:

      name: read-pod

    spec:

      containers:

      - name: read-pod

        image: nginx

        volumeMounts:

          - name: nfs-pvc

            mountPath: /usr/share/nginx/html

      restartPolicy:

      volumes:

        - name: nfs-pvc

          persistentVolumeClaim:

            claimName: test-claim1

    #查看 pod 是否创建成功

    kubectl get pods | grep read

    read-pod                          1/1    Running    0          29s

    相关文章

      网友评论

        本文标题:k8s 持久化存储卷

        本文链接:https://www.haomeiwen.com/subject/ftjpjltx.html