JindoRuntime是基于C++实现的支撑Dataset数据管理和缓存的执行引擎,支持OSS对象存储。Fluid通过管理和调度JindoRuntime实现数据集的可见性、弹性伸缩和数据迁移。本文介绍如何在ACK集群Pro版使用ACS算力场景下使用Fluid实现数据加速访问。
前提条件
已创建ACK集群Pro版,并已支持ACK集群Pro版使用ACS算力。具体操作,请参见通过ACK托管集群Pro版使用ACS算力。
已开通阿里云对象存储 OSS(Object Storage Service)服务。具体操作,请参见开通OSS服务。
已在ACK集群Pro版应用市场安装ack-fluid组件,组件版本需要1.0.11-*及以上。
已使用kubectl连接Kubernetes集群。具体操作,请参见获取集群KubeConfig并通过kubectl工具连接集群。
已为ACS Pod开启特权模式。
说明使用Fluid实现数据加速访问需要开启特权模式,请提交工单开启。
操作步骤
步骤一:准备OSS Bucket的数据
执行以下命令,将测试数据下载到ECS实例中。
wget https://archive.apache.org/dist/spark/spark-3.0.1/spark-3.0.1-bin-hadoop2.7.tgz
将下载的测试数据上传到阿里云OSS对应的Bucket中。
重要上传到OSS的步骤以Alibaba Cloud Linux 3.2104 LTS 64位的ECS实例为例。其他操作系统的具体操作,请参见命令行工具ossutil命令参考和命令行工具ossutil 1.0。
输入以下命令,创建名称为
examplebucket
的Bucket存储空间。说明如果执行命令后返回
ErrorCode=BucketAlreadyExists
,表示Bucket名称已经存在。由于Bucket名称在OSS范围内必须全局唯一,请按实际情况修改examplebucket
。ossutil64 mb oss://examplebucket
预期输出:
0.668238(s) elapsed
以上输出结果表明已成功创建
examplebucket
。将下载的测试数据上传到新建的
examplebucket
中。ossutil64 cp spark-3.0.1-bin-hadoop2.7.tgz oss://examplebucket
(可选)设置Bucket和数据的访问权限。具体内容,请参见权限控制。
步骤二:创建Dataset和JindoRuntime
在创建Dataset之前,在ECS实例中的根目录中创建一个
mySecret.yaml
文件。apiVersion: v1 kind: Secret metadata: name: mysecret stringData: fs.oss.accessKeyId: xxx fs.oss.accessKeySecret: xxx
其中,
fs.oss.accessKeyId
和fs.oss.accessKeySecret
是步骤一:准备OSS Bucket的数据中用来访问OSS的AccessKey ID
和AccessKey Secret
。执行以下命令,生成Secret。Kubernetes会对已创建的Secret使用加密编码,避免将其明文暴露。
kubectl create -f mySecret.yaml
使用以下YAML文件样例创建一个名为
resource.yaml
的文件,里面包含两部分:创建一个Dataset,描述远端存储数据集和UFS的信息。
创建一个JindoRuntime,启动一个JindoFS的集群来提供缓存服务。
说明通过
kubectl get pods --field-selector=status.phase=Running -n fluid-system
命令可以检查ack-fluid组件中的dataset-controller和jindoruntime-controller是否正常运行。apiVersion: data.fluid.io/v1alpha1 kind: Dataset metadata: name: hadoop spec: mounts: - mountPoint: oss://<oss_bucket> # 请按实际情况修改<oss_bucket> options: fs.oss.endpoint: <oss_endpoint> # 请按实际情况修改<oss_endpoint> name: hadoop path: "/" encryptOptions: - name: fs.oss.accessKeyId valueFrom: secretKeyRef: name: mysecret key: fs.oss.accessKeyId - name: fs.oss.accessKeySecret valueFrom: secretKeyRef: name: mysecret key: fs.oss.accessKeySecret --- apiVersion: data.fluid.io/v1alpha1 kind: JindoRuntime metadata: name: hadoop spec: replicas: 2 tieredstore: levels: - mediumtype: MEM path: /dev/shm volumeType: emptyDir quota: 2Gi high: "0.99" low: "0.95"
相关参数解释如下表所示:
参数
说明
mountPoint
oss://<oss_bucket>表示挂载UFS的路径,<oss_bucket>为OSS Bucket的名称,路径中不需要包含endpoint信息,例如:
oss://examplebucket
。fs.oss.endpoint
OSS Bucket的Endpoint信息,公网或私网地址均支持,例如:
oss-cn-beijing-internal.aliyuncs.com
。更多信息,请参见OSS地域和访问域名。replicas
表示创建JindoFS集群的Worker数量。
mediumtype
表示缓存类型。在创建JindoRuntime模板样例时,JindoFS暂时只支持
HDD
/SSD
/MEM
中的一种缓存类型。path
表示存储路径,暂时只支持单个路径。当选择
MEM
做缓存时,需指定一个本地路径来存储Log等文件。quota
表示缓存最大容量,单位为Gi。
high
表示存储容量上限大小。
low
表示存储容量下限大小。
执行以下命令,创建JindoRuntime和Dataset。
kubectl create -f resource.yaml
执行以下命令,查看Dataset的部署情况。
kubectl get dataset hadoop
预期输出:
NAME UFS TOTAL SIZE CACHED CACHE CAPACITY CACHED PERCENTAGE PHASE AGE hadoop 209.74MiB 0.00B 4.00GiB 0.0% Bound 56s
执行以下命令,查看JindoRuntime的部署情况。
kubectl get jindoruntime hadoop
预期输出:
NAME MASTER PHASE WORKER PHASE FUSE PHASE AGE hadoop Ready Ready Ready 2m11s
执行以下命令,查看PV和PVC的创建情况。
kubectl get pv,pvc
预期输出:
NAME CAPACITY ACCESS MODES RECLAIM POLICY STATUS CLAIM STORAGECLASS VOLUMEATTRIBUTESCLASS REASON AGE persistentvolume/default-hadoop 100Pi ROX Retain Bound default/hadoop fluid <unset> 2m5s NAME STATUS VOLUME CAPACITY ACCESS MODES STORAGECLASS VOLUMEATTRIBUTESCLASS AGE persistentvolumeclaim/hadoop Bound default-hadoop 100Pi ROX fluid <unset> 2m5s
从上述输出的查询信息,可以知道Dataset和JindoRuntime已创建成功。
步骤三:创建应用容器体验加速效果
您可以通过创建应用容器来使用JindoFS加速服务,或者提交机器学习作业来体验相关功能。本文以创建一个应用容器多次访问同一数据,并通过比较访问时间来展示JindoRuntime的加速效果。
使用以下YAML文件样例,创建名为app.yaml 的文件。
apiVersion: v1 kind: Pod metadata: name: demo-app labels: # ACS的挂载需要使用到Fluid Webhook的Sidecar注入,所以需要配置如下label alibabacloud.com/fluid-sidecar-target: acs # 计算类型为performance性能型 alibabacloud.com/compute-class: performance spec: containers: - name: demo image: mirrors-ssl.aliyuncs.com/nginx:latest volumeMounts: - mountPath: /data name: hadoop resources: requests: cpu: 14 memory: 56Gi volumes: - name: hadoop persistentVolumeClaim: claimName: hadoop nodeSelector: type: virtual-kubelet tolerations: - key: virtual-kubelet.io/provider operator: Equal value: alibabacloud effect: NoSchedule
执行以下命令,创建应用容器。
kubectl create -f app.yaml
执行以下命令,查看文件大小。
kubectl exec -it demo-app -c demo -- bash du -sh /data/spark-3.0.1-bin-hadoop2.7.tgz
预期输出:
210M /data/spark-3.0.1-bin-hadoop2.7.tgz
执行如下命令,查看文件的拷贝时间。
time cp /data/spark-3.0.1-bin-hadoop2.7.tgz /dev/null
预期输出:
real 0m1.883s user 0m0.001s sys 0m0.041s
上述输出信息显示本次文件拷贝时间消耗了1.883秒。由于是第一次拷贝该文件,此次操作并未使用JindoFS缓存加速能力。
退出demo-app,执行以下命令,查看此时Dataset的缓存情况。
kubectl get dataset hadoop
预期输出:
NAME UFS TOTAL SIZE CACHED CACHE CAPACITY CACHED PERCENTAGE PHASE AGE hadoop 209.74MiB 209.74MiB 4.00GiB 100.0% Bound 64m
上述输出信息显示
100.0%
的数据都已经在JindoFS缓存。执行以下命令,删除之前的应用容器,新建相同的应用容器。
说明这样做的目的是为了避免其他因素(例如:Page Cache)对结果造成影响,如果节点已经存在本地缓存,拷贝操作会优先使用本地缓存。
kubectl delete -f app.yaml && kubectl create -f app.yaml
执行如下命令,查看文件拷贝时间。
kubectl exec -it demo-app -c demo -- bash time cp /data/spark-3.0.1-bin-hadoop2.7.tgz /dev/null
预期输出:
real 0m0.203s user 0m0.000s sys 0m0.047s
上述输出信息显示本次文件拷贝时间消耗了0.203秒,比第一次缩短了约9倍。由于此时文件已经被JindoFS缓存,第二次访问所需时间远小于第一次。
重要本文中提供的拷贝时间数据仅为参考值,实际数据请以您的操作环境为准。