本文主要介绍如何使用DLA Spark访问用户VPC中的HADOOP集群(开启kerberos认证的集群暂不支持)。
前提条件
- 您已开通数据湖分析DLA(Data Lake Analytics)服务。如何开通,请参见开通云原生数据湖分析服务。
- 您已登录云原生数据库分析DLA控制台,在云原生数据湖分析DLA控制台上创建了Spark虚拟集群。
- 您已开通对象存储OSS(Object Storage Service)服务。如何开通,请参见开通OSS服务。
- 准备创建Spark计算节点所需要的交换机id和安全组id,可以选择已有的交换机和安全组,也可以新建交换机和安全组。交换机和安全组需要满足以下条件。
- 交换机需要与您的Hadoop服务集群在同一VPC下。可使用您Hadoop集群控制台上的交换机ID。
- 安全组需要与您的Hadoop服务集群在同一VPC下。您可以前往ECS控制台-网络与安全-安全组按照专有网络(VPC)ID搜索该VPC下的安全组,任意选择一个安全组ID即可。
- 如果您的Hadoop服务有白名单控制,需要您将交换机网段加入到您Hadoop服务的白名单中。
注意 对于Xpack-Spark用户首先联系云X-Pack Spark答疑(钉钉号:dgw-jk1ia6xzp)开通HDFS, 由于HDFS的开放可能造成用户的恶意攻击,引起集群不稳定甚至造成破坏。因此XPack-Spark的HDFS功能暂时不直接开放给用户。