Spark使用JindoSDK查询OSS-HDFS服务中的数据

JindoSDK是一个面向Hadoop、Spark生态且简单易用的OSS客户端,为OSS提供高度优化的Hadoop FileSystem实现。相对于Hadoop社区OSS客户端,Spark使用JindoSDK查询OSS-HDFS服务中的数据时,可以获得更好的性能。

前提条件

操作步骤

  1. 连接ECS实例。具体操作,请参见连接ECS实例

  2. 配置JindoSDK。

    1. 下载最新版本的JindoSDK JAR包。下载地址,请参见GitHub

    2. 解压JindoSDK JAR包。

      以下以解压jindosdk-x.x.x-linux.tar.gz为例,如使用其他版本的JindoSDK,请替换为对应的JAR包名称。

      tar zxvf jindosdk-x.x.x-linux.tar.gz
      说明

      x.x.x表示JindoSDK JAR包版本号。

    3. 可选:如果您的环境中未包含Kerberos和SASL相关依赖,则需要在部署JindoSDK的所有节点安装以下依赖。

      • Ubuntu或Debian

        sudo apt-get install libkrb5-dev krb5-admin-server krb5-kdc krb5-user libsasl2-dev libsasl2-modules libsasl2-modules-gssapi-mit
      • Red Hat Enterprise Linux或CentOS

        sudo yum install krb5-server krb5-workstation cyrus-sasl-devel cyrus-sasl-gssapi cyrus-sasl-plain
      • macOS

        brew install krb5
    4. 将已下载的JindoSDK JAR包拷贝至Spark的classpath路径下。

      cp jindosdk-x.x.x-linux/lib/*.jar  $SPARK_HOME/jars/
  3. 配置OSS-HDFS服务实现类及AccessKey。

    • core-site.xml文件中配置

      1. 将OSS-HDFS服务实现类配置到Spark的core-site.xml配置文件中。

        <configuration>
            <property>
                <name>fs.AbstractFileSystem.oss.impl</name>
                <value>com.aliyun.jindodata.oss.JindoOSS</value>
            </property>
        
            <property>
                <name>fs.oss.impl</name>
                <value>com.aliyun.jindodata.oss.JindoOssFileSystem</value>
            </property>
        </configuration>
      2. 将已开启OSS-HDFS服务的Bucket对应的AccessKey ID、AccessKey Secret配置在Spark的core-site.xml配置文件中。

        <configuration>
            <property>
                <name>fs.oss.accessKeyId</name>
                <value>LTAI********</value>
            </property>
        
            <property>
                <name>fs.oss.accessKeySecret</name>
                <value>KZo1********</value>
            </property>
        </configuration>
    • 在提交任务时配置

      在提交Spark任务时配置OSS-HDFS服务实现类及AccessKey,示例如下:

      spark-submit --conf spark.hadoop.fs.AbstractFileSystem.oss.impl=com.aliyun.jindodata.oss.OSS --conf spark.hadoop.fs.oss.impl=com.aliyun.jindodata.oss.JindoOssFileSystem --conf spark.hadoop.fs.oss.accessKeyId=LTAI********  --conf spark.hadoop.fs.oss.accessKeySecret=KZo149BD9GLPNiDIEmdQ7d****
  4. 配置OSS-HDFS服务Endpoint。

    使用OSS-HDFS服务访问OSS Bucket时需要配置Endpoint。推荐访问路径格式为oss://<Bucket>.<Endpoint>/<Object>,例如oss://examplebucket.cn-shanghai.oss-dls.aliyuncs.com/exampleobject.txt。配置完成后,JindoSDK会根据访问路径中的Endpoint访问对应的OSS-HDFS服务接口。

    您还可以通过其他方式配置OSS-HDFS服务Endpoint,且不同方式配置的Endpoint存在生效优先级。更多信息,请参见附录一:配置Endpoint的其他方式

  5. 使用Spark访问OSS-HDFS。

    1. 创建表。

      create table test_oss (c1 string) location "oss://examplebucket.cn-hangzhou.oss-dls.aliyuncs.com/dir/";
    2. 往表中插入数据。

      insert into table test_oss values ("testdata");
    3. 查询表。

      select * from test_oss;