JindoSDK是一个面向Hadoop、Spark生态且简单易用的OSS客户端,为OSS提供高度优化的Hadoop FileSystem实现。相对于Hadoop社区OSS客户端,Spark使用JindoSDK查询OSS-HDFS服务中的数据时,可以获得更好的性能。

前提条件

操作步骤

  1. 连接ECS实例。具体操作,请参见连接ECS实例
  2. 配置JindoSDK。
    1. 下载最新版本的JindoFS SDK JAR包。下载地址,请参见JindoData下载
    2. 可选:如果您的环境中未包含Kerberos和SASL相关依赖,则需要在部署JindoSDK的所有节点安装以下依赖。
      • Ubuntu或Debian
        sudo apt-get install libkrb5-dev krb5-admin-server krb5-kdc krb5-user libsasl2-dev libsasl2-modules libsasl2-modules-gssapi-mit
      • Red Hat Enterprise Linux或CentOS
        sudo yum install krb5-server krb5-workstation cyrus-sasl-devel cyrus-sasl-gssapi cyrus-sasl-plain
      • macOS
        brew install krb5
    3. 将已下载的JindoSDK JAR包拷贝至Spark的classpath路径下。
      cp jindosdk-x.x.x/lib/*.jar  $SPARK_HOME/jars/
      说明 x.x.x表示JindoSDK JAR包版本号。
  3. 配置OSS-HDFS服务实现类及AccessKey。
    • core-site.xml文件中配置
      1. 将OSS-HDFS服务实现类配置到Spark的core-site.xml配置文件中。
        <configuration>
            <property>
                <name>fs.AbstractFileSystem.oss.impl</name>
                <value>com.aliyun.jindodata.oss.JindoOSS</value>
            </property>
        
            <property>
                <name>fs.oss.impl</name>
                <value>com.aliyun.jindodata.oss.JindoOssFileSystem</value>
            </property>
        </configuration>
      2. 将已开启OSS-HDFS服务的Bucket对应的AccessKey ID、AccessKey Secret配置在Spark的core-site.xml配置文件中。
        <configuration>
            <property>
                <name>fs.oss.accessKeyId</name>
                <value>LTAI5t7h6SgiLSganP2m****</value>
            </property>
        
            <property>
                <name>fs.oss.accessKeySecret</name>
                <value>KZo149BD9GLPNiDIEmdQ7d****</value>
            </property>
        </configuration>
    • 在提交任务时配置

      在提交Spark任务时配置OSS-HDFS服务实现类及AccessKey,示例如下:

      spark-submit --conf spark.hadoop.fs.AbstractFileSystem.oss.impl=com.aliyun.jindodata.oss.OSS --conf spark.hadoop.fs.oss.impl=com.aliyun.jindodata.oss.JindoOssFileSystem --conf spark.hadoop.fs.oss.accessKeyId=LTAI5t7h6SgiLSganP2m****  --conf spark.hadoop.fs.oss.accessKeySecret=KZo149BD9GLPNiDIEmdQ7d****
  4. 配置OSS-HDFS服务Endpoint。
    使用OSS-HDFS服务访问OSS Bucket时需要配置Endpoint。推荐访问路径格式为oss://<Bucket>.<Endpoint>/<Object>,例如oss://examplebucket.cn-shanghai.oss-dls.aliyuncs.com/exampleobject.txt。配置完成后,JindoSDK会根据访问路径中的Endpoint访问对应的OSS-HDFS服务接口。

    您还可以通过其他方式配置OSS-HDFS服务Endpoint,且不同方式配置的Endpoint存在生效优先级。更多信息,请参见附录一:配置Endpoint的其他方式

  5. 使用Spark访问OSS-HDFS。
    1. 创建表。
      create table test_oss (c1 string) location "oss://examplebucket.cn-hangzhou.oss-dls.aliyuncs.com/dir/";
    2. 往表中插入数据。
      insert into table test_oss values ("testdata");
    3. 查询表。
      select * from test_oss;