文档

添加Spark数据源

更新时间:

添加Spark数据源可以实现批量快速导入数据功能,本文介绍添加Spark数据源的方法。

前提条件

  • 已购买引擎类型为LTS的Lindorm实例。

  • 已创建Lindorm实例并开通计算引擎服务,创建方法请参见创建实例

添加方式

通过云原生多模数据库 Lindorm控制台添加Spark数据源

  1. 登录Lindorm管理控制台

  2. 实例列表页,单击引擎类型为LTS的实例ID。

  3. 在左侧导航栏选择数据源管理

  4. 切换至计算引擎数据源页签,单击添加数据源

  5. 添加数据源对话框中配置以下信息。

    配置项

    说明

    实例类型

    固定选择云原生多模数据库Lindorm

    实例地区

    选择目标Lindorm实例的所属地域。

    实例ID

    选择目标Lindorm实例ID。

    说明
    • 请确保目标Lindorm实例已开通计算引擎服务,具体操作请参见开通与变配

    • 请确保目标Lindorm实例与引擎类型为LTS的Lindorm实例使用相同的专有网络,如果需要跨专有网络关联实例,请参见跨VPC互联概述

  6. 单击确定,状态为已关联表示Spark数据源已添加成功。

通过LTS服务添加Spark数据源

  1. 登录LTS服务,具体操作请参见登录LTS服务

  2. 在左侧导航栏选择数据源管理 > 添加数据源

  3. 添加数据源页面配置以下参数。

    参数

    说明

    名称

    固定填写lts_bulkload_spark

    数据源类型

    固定选择Spark

    数据源参数

    配置Spark数据源的相关参数。

    {
        "virtualClusterName":"token",
        "hdfsUri":"hdfs://nn1:8020,nn2:8020",
        "sparkEndpoint":"http://192.168.XX.XX:10099"
    }
    • virtualClusterName:Lindorm计算引擎的JAR地址Token值。通过云原生多模数据库 Lindorm控制台的数据库连接获取,如下图所示。获取Token值

    • hdfsUri:Lindorm实例的HDFS连接地址,格式为:hdfs://nn1:8020,nn2:8020

      说明

      连接地址中获取nn1nn2的方法请提交工单

    • sparkEndpoint:Lindorm计算引擎的JAR专有网络地址。通过云原生多模数据库 Lindorm控制台的数据库连接获取,如下图所示。获取专有网络地址

  4. 单击添加

  • 本页导读 (1)
文档反馈