文档

动态挂载NAS存储卷

更新时间:

对于共享数据,磁盘I/O要求较高的应用场景,可以使用NAS作为持久化存储卷。本文介绍如何为应用动态挂载NAS存储卷,并验证NAS的共享存储和持久化存储。

背景信息

NAS是一种可共享访问、弹性扩展、高可靠以及高性能的分布式文件系统,适用于共享数据,以及I/O要求较高的应用场景。更多信息,请参见存储概述

说明

ACS支持静态和动态挂载NAS存储卷。本文介绍动态挂载方式,静态挂载方式请参见静态挂载NAS存储卷

前提条件

ACS集群中已安装最新版本的managed-csiprovisioner组件。

说明

您可以在ACS集群管理页的左侧导航栏选择运维管理 > 组件管理,在存储页签下查看managed-csiprovisioner组件的安装情况。

使用限制

  • 不支持挂载SMB协议的NAS文件系统。

  • NAS文件系统只能挂载到相同VPC的Pod上,不支持跨VPC挂载。

  • 仅支持通过NFSv3协议挂载NAS文件系统。

注意事项

  • NAS为共享存储,一个NAS存储卷可以挂载到多个Pod上。此时多个Pod可能同时修改相同数据,需要应用自行实现数据的同步。

  • 挂载NAS时,请勿在应用的YAML中配置securityContext.fsgroup,这可能会造成挂载失败。

    说明

    NAS文件系统的/目录不支持修改权限、属主和属组。

  • 挂载NAS后,请勿删除挂载点,否则会造成操作系统无响应。

动态挂载NAS存储卷

步骤一:创建StorageClass

  1. 连接集群。具体操作,请参见获取集群KubeConfig并通过kubectl工具连接集群在CloudShell上通过kubectl管理Kubernetes集群

  2. 参考参数说明表修改以下YAML内容,并保存为nas-sc.yaml。

    apiVersion: storage.k8s.io/v1
    kind: StorageClass
    metadata:
      name: alicloud-nas-fs
    mountOptions:
    - nolock,tcp,noresvport
    - vers=3
    parameters:
      volumeAs: filesystem
      fileSystemType: standard
      storageType: Performance
      regionId: cn-shanghai
      zoneId: cn-shanghai-e
      vpcId: "vpc-2ze2fxn6popm8c2mzm****"
      vSwitchId: "vsw-2zwdg25a2b4y5juy****"
      accessGroupName: DEFAULT_VPC_GROUP_NAME
      deleteVolume: "false"
    provisioner: nasplugin.csi.alibabacloud.com
    reclaimPolicy: Retain

    相关参数说明如下:

    重要

    不同类型和存储规格的NAS文件系统支持的地域、可用区不同。请根据业务的存储需求、ACS集群所属地域和ACS集群中Pod使用的VPC和交换机信息等确定您要在哪个地域、可用区,以及哪个VPC、交换机下创建什么类型的NAS文件系统和挂载点。相关参考如下:

    • 各类型NAS文件系统的存储规格、性能、计费、支持的地域和可用区等信息,请参见通用型NAS极速型NAS

    • 通用型NAS与极速型NAS在挂载连通性、文件系统数量及协议类型等方面存在相应约束条件。更多信息,请参见使用限制

    • 您可以执行kubectl get cm -n kube-system acs-profile -o yaml命令查看acs-profile的YAML,在vpcIdvSwitchIds中获取Pod使用的VPC ID和交换机ID。

    参数

    说明

    volumeAs

    目前仅支持filesystem,表示会自动创建一个NAS文件系统,即一个NAS存储卷对应一个NAS文件系统。

    fileSystemType

    NAS文件系统的类型。

    • standard(默认):通用型NAS,更多信息,请参见通用型NAS

    • extreme:极速型NAS,更多信息,请参见极速型NAS

    storageType

    NAS文件系统的存储规格。

    • 对于通用型NAS,可选值如下:

      • Performance(默认):性能型

      • Capacity:容量型

    • 对于极速型NAS,可选值如下:

      • standard(默认):标准型

      • advanced:高级型

    regionId

    NAS文件系统所属地域。需与ACS集群所属地域保持一致。

    zoneId

    NAS文件系统所属可用区。请根据ACS集群中Pod所使用的交换机,选择对应的可用区。

    vpcIdvSwitchId

    NAS文件系统挂载点所属的VPC ID和交换机ID。需配置为ACS集群中Pod使用的VPC ID和交换机ID。

    accessGroupName

    NAS文件系统挂载点的权限组。默认为DEFAULT_VPC_GROUP_NAME

    provisioner

    驱动类型。必须配置为nasplugin.csi.alibabacloud.com,表示使用阿里云NAS CSI插件。

    reclaimPolicy

    PV的回收策略。目前仅支持Retain,表示删除PV时,会保留对应的NAS文件系统和挂载点。

  3. 创建StorageClass。

    kubectl create -f nas-sc.yaml
  4. 查看StorageClass。

    kubectl get sc

    预期返回:

    NAME                             PROVISIONER                       RECLAIMPOLICY   VOLUMEBINDINGMODE      ALLOWVOLUMEEXPANSION   AGE
    alicloud-nas-fs                  nasplugin.csi.alibabacloud.com    Retain          Immediate              false                  13m
    ......

步骤二:创建PVC

  1. 将以下YAML内容保存为nas-pvc-fs.yaml。

    kind: PersistentVolumeClaim
    apiVersion: v1
    metadata:
      name: nas-pvc-fs
    spec:
      accessModes:
        - ReadWriteMany
      storageClassName: alicloud-nas-fs
      resources:
        requests:
          storage: 20Gi

    相关参数说明如下:

    参数

    说明

    accessModes

    访问模式。

    storage

    分配给Pod的存储容量,即要创建的NAS存储卷容量。

    说明

    由于极速型NAS有100 GiB的最小容量限制,如果StorageClass中定义的NAS文件系统类型为极速型NAS,此处storage的值必须≥100 GiB,否则无法创建对应的PV。

    storageClassName

    要绑定的StorageClass名称。

  2. 创建PVC。

    kubectl create -f nas-pvc-fs.yaml
  3. 查看PVC。

    kubectl get pvc

    返回示例如下,PV已关联自动创建的PV。您可以前往NAS文件系统控制台查看对应的NAS文件系统。

    NAME         STATUS   VOLUME                                     CAPACITY   ACCESS MODES   STORAGECLASS      VOLUMEATTRIBUTESCLASS  AGE
    nas-pvc-fs   Bound    nas-04a730ba-010d-4fb1-9043-476d8c38****   20Gi       RWX            alicloud-nas-fs   <unset>                14s

步骤三:创建应用并挂载NAS

  1. 使用以下YAML内容,创建nas-test-fs.yaml文件。

    以下YAML示例可以创建包含2个Pod的Deployment,2个Pod均通过名为nas-pvc-fs的PVC申请存储资源,挂载路径均为/data

    apiVersion: apps/v1
    kind: Deployment
    metadata:
      name: nas-test
      labels:
        app: nginx
    spec:
      replicas: 2
      selector:
        matchLabels:
          app: nginx
      template:
        metadata:
          labels:
            app: nginx
        spec:
          containers:
          - name: nginx
            image: registry.cn-hangzhou.aliyuncs.com/acs-sample/nginx:latest
            ports:
            - containerPort: 80
            volumeMounts:
              - name: pvc-nas
                mountPath: /data
          volumes:
            - name: pvc-nas
              persistentVolumeClaim:
                claimName: nas-pvc-fs
  2. 创建Deployment并挂载NAS。

    kubectl create -f nas-test-fs.yaml
  3. 查看Deployment中Pod的部署情况。

    kubectl get pod | grep nas-test

    返回示例如下,已创建2个Pod。

    nas-test-****-***a   1/1     Running   0          40s
    nas-test-****-***b   1/1     Running   0          40s
  4. 查看挂载路径。

    命令示例如下,预期会返回NAS文件系统挂载目录下的数据。默认为空。

    kubectl exec nas-test-****-***a -- ls /data

验证NAS的共享存储和持久化存储

按照上文示例创建的Deployment中含有2个Pod,2个Pod挂载了同一NAS文件系统。您可以通过以下方式进行验证:

  • 在一个Pod中创建文件,然后另一个Pod中查看文件,以此来验证共享存储。

  • 重建Deployment,然后在新创建的Pod中查看文件系统中的数据是否存在,以此来验证持久化存储。

  1. 查看Pod信息。

    kubectl get pod | grep nas-test

    返回示例如下:

    nas-test-****-***a   1/1     Running   0          40s
    nas-test-****-***b   1/1     Running   0          40s
  2. 验证共享存储。

    1. 在一个Pod中创建文件。

      以名为nas-test-****-***a的Pod作为示例:

      kubectl exec nas-test-****-***a -- touch /data/test.txt
    2. 在另一个Pod中查看文件。

      以名为nas-test-****-***b的Pod作为示例:

      kubectl exec nas-test-****-***b -- ls /data

      预期返回如下,可以看到已共享新建的文件test.txt

      test.txt
  3. 验证持久化存储。

    1. 重建Deployment。

      kubectl rollout restart deploy nas-test
    2. 查看Pod,等待新Pod创建成功。

      kubectl get pod | grep nas-test

      返回示例如下:

      nas-test-****-***c   1/1     Running   0          67s
      nas-test-****-***d   1/1     Running   0          49s
    3. 在新Pod中查看文件系统中的数据是否存在。

      以名为nas-test-c***的Pod作为示例:

      kubectl exec nas-test-****-***c -- ls /data

      预期返回如下,可以看到NAS文件系统中的数据依然存在,在新Pod的挂载目录下可以重新获取。

      test.txt