非EMR集群接入OSS-HDFS服务快速入门

OSS-HDFS服务(JindoFS服务)完全兼容HDFS接口,同时支持目录层级的操作。JindoSDK为Apache Hadoop的计算分析应用(例如MapReduce、Hive、Spark、Flink等)提供了访问HDFS服务的能力。本文介绍如何通过在ECS实例中部署JindoSDK,然后完成OSS-HDFS服务快速入门常见操作。

说明

如果您使用的是阿里云EMR集群,请通过EMR集群的方式接入OSS-HDFS服务。具体操作,请参见EMR集群接入OSS-HDFS服务快速入门

前提条件

  • 阿里云账号默认拥有通过非EMR集群的方式接入OSS-HDFS服务并执行常见操作的权限。如果您希望通过RAM用户接入OSS-HDFS服务,RAM用户需要具备对应的权限要求,详情请参见授权RAM用户通过非EMR集群接入OSS-HDFS服务

操作视频

观看以下视频了解如何通过非EMR集群快速接入OSS-HDFS服务并完成常见操作。

操作步骤

  1. 连接ECS实例。具体操作,请参见连接ECS实例

  2. 下载并解压JindoSDK JAR包。下载地址,请参见GitHub

  3. 执行以下命令,解压JindoSDK JAR包。

    以下以解压jindosdk-x.x.x-linux.tar.gz为例,如使用其他版本的JindoSDK,请替换为对应的JAR包名称。

    tar zxvf jindosdk-x.x.x-linux.tar.gz
    说明

    x.x.x表示JindoSDK JAR包版本号。

  4. 配置环境变量。

    1. 配置JINDOSDK_HOME

      以安装包内容解压在/usr/lib/jindosdk-x.x.x-linux目录为例:

      export JINDOSDK_HOME=/usr/lib/jindosdk-x.x.x-linux
    2. 配置HADOOP_CLASSPATH

      export HADOOP_CLASSPATH=$HADOOP_CLASSPATH:${JINDOSDK_HOME}/lib/*
      重要

      请将安装目录和环境变量部署到所有所需节点上。

  5. 配置OSS-HDFS服务实现类及AccessKey。

    1. 执行以下命令,进入Hadoop的core-site.xml配置文件。

      vim /usr/local/hadoop/etc/hadoop/core-site.xml
    2. 在Hadoop的core-site.xml中,配置JindoSDK DLS实现类。

      <configuration>
          <property>
              <name>fs.AbstractFileSystem.oss.impl</name>
              <value>com.aliyun.jindodata.oss.JindoOSS</value>
          </property>
      
          <property>
              <name>fs.oss.impl</name>
              <value>com.aliyun.jindodata.oss.JindoOssFileSystem</value>
          </property>
      </configuration>
    3. 在Hadoop的core-site.xml文件中,配置阿里云账号的访问密钥,或者满足权限要求的RAM用户的访问密钥。

      关于RAM用户在该场景下需要满足的权限说明,请参见授权RAM用户通过非EMR集群接入OSS-HDFS服务

      <configuration>
          <property>
              <name>fs.oss.accessKeyId</name>
              <value>xxx</value>
          </property>
      
          <property>
              <name>fs.oss.accessKeySecret</name>
              <value>xxx</value>
          </property>
      </configuration>
  6. 配置OSS-HDFS服务Endpoint。

    使用OSS-HDFS服务访问OSS Bucket时需要配置Endpoint。推荐访问路径格式为oss://<Bucket>.<Endpoint>/<Object>,例如oss://examplebucket.cn-hangzhou.oss-dls.aliyuncs.com/exampleobject.txt。配置完成后,JindoSDK会根据访问路径中的Endpoint访问对应的OSS-HDFS服务接口。

    您还可以通过其他方式配置OSS-HDFS服务Endpoint,且不同方式配置的Endpoint存在生效优先级。更多信息,请参见EMR集群接入OSS-HDFS服务快速入门

  7. 通过HDFS Shell命令完成OSS-HDFS服务常见操作。

    • 上传文件

      将本地根目录下的examplefile.txt文件上传至examplebucket,示例如下:

      hdfs dfs -put examplefile.txt oss://examplebucket.cn-hangzhou.oss-dls.aliyuncs.com/
    • 下载文件

      将examplebucket下的exampleobject.txt下载到本地根目录文件夹/tmp,示例如下:

      hdfs dfs -get oss://examplebucket.cn-hangzhou.oss-dls.aliyuncs.com/exampleobject.txt  /tmp/

    更多操作,请参见通过Hadoop Shell命令访问

附录一:配置Endpoint的其他方式

除上述提到的在访问路径中指定Endpoint的方式以外,您还可以通过以下两种方式配置OSS-HDFS服务的Endpoint:

  • Bucket级别的Endpoint

    如果使用oss://<Bucket>/<Object>格式的访问路径,即访问路径中未设置Endpoint。此时,您可以在Hadoop的配置文件core-site.xml中设置Bucket级别的Endpoint,从而指向OSS-HDFS服务的Endpoint。

    <configuration>
        <property>
            <!-- 以下examplebucket为开通HDFS服务的Bucket名称,其他Bucket请根据实际情况替换。 -->
            <name>fs.oss.bucket.examplebucket.endpoint</name>
            <!-- 以下以杭州地域为例,其他地域请根据实际情况替换。 -->
            <value>cn-hangzhou.oss-dls.aliyuncs.com</value>
        </property>
    </configuration>
  • 全局默认Endpoint

    如果使用oss://<Bucket>/<Object>格式的访问路径,且访问路径中未设置Bucket级别的Endpoint,则默认使用全局Endpoint的方式访问OSS-HDFS服务。在Hadoop的配置文件core-site.xml中设置全局默认Endpoint的方式如下:

    <configuration>
        <property>
            <name>fs.oss.endpoint</name>
            <!-- 以下以杭州地域为例,其他地域请根据实际情况替换。 -->
            <value>cn-hangzhou.oss-dls.aliyuncs.com</value>
        </property>
    </configuration>
说明

通过不同方式配置Endpoint后,Endpoint生效优先级为访问路径中的Endpoint>Bucket级别的Endpoint>全局默认Endpoint

附录二:性能调优

您可以结合实际业务需求,将以下配置项添加到Hadoop的core-site.xml中。仅JindoSDK 4.0及以上版本支持以下配置项。

<configuration>

    <property>
          <!-- 客户端写入的临时文件目录,可配置多个,每个临时文件目录需以逗号隔开。多用户环境需配置可读写权限 -->
        <name>fs.oss.tmp.data.dirs</name>
        <value>/tmp/</value>
    </property>

    <property>
          <!-- 访问OSS失败重试次数 -->
        <name>fs.oss.retry.count</name>
        <value>5</value>
    </property>

    <property>
          <!-- 请求OSS超时时间(毫秒) -->
        <name>fs.oss.timeout.millisecond</name>
        <value>30000</value>
    </property>

    <property>
          <!-- 连接OSS超时时间(毫秒) -->
        <name>fs.oss.connection.timeout.millisecond</name>
        <value>3000</value>
    </property>

    <property>
          <!-- OSS单个文件并发上传线程数 -->
        <name>fs.oss.upload.thread.concurrency</name>
        <value>5</value>
    </property>

    <property>
          <!-- OSS并发上传任务队列大小 -->
        <name>fs.oss.upload.queue.size</name>
        <value>5</value>
    </property>

    <property>
          <!-- 进程内OSS最大并发上传任务数 -->
        <name>fs.oss.upload.max.pending.tasks.per.stream</name>
        <value>16</value>
    </property>

    <property>
          <!-- OSS并发下载任务队列大小 -->
        <name>fs.oss.download.queue.size</name>
        <value>5</value>
    </property>

    <property>
          <!-- 进程内OSS最大并发下载任务数 -->
        <name>fs.oss.download.thread.concurrency</name>
        <value>16</value>
    </property>

    <property>
          <!-- 预读OSS的buffer大小 -->
        <name>fs.oss.read.readahead.buffer.size</name>
        <value>1048576</value>
    </property>

    <property>
          <!-- 同时预读OSS的buffer个数 -->
        <name>fs.oss.read.readahead.buffer.count</name>
        <value>4</value>
    </property>

</configuration>