通过ACK One主控实例,您可以使用和单集群相同的方式创建Spark任务。由主控实例根据Spark任务需要的资源和关联集群的剩余资源,执行动态调度策略,选择适合的关联集群下发Spark任务。本文介绍如何创建Spark任务并查看任务状态。
前提条件
-
主控实例管理员(实例创建者)已配置命名空间和配额。具体操作,请参见管理命名空间与配额。
- 主控实例默认已安装Spark Operator的Spark Application CRD,支持的Spark Application CRD的APIVersion为sparkoperator.k8s.io/v1beta2。
- 主控实例管理员可通过以下命令查看CRD。
kubectl get crd sparkapplications.sparkoperator.k8s.io
- 如有定制需求,主控实例管理员可以修改sparkoperator.k8s.io_sparkapplications.yaml,通过以下命令修改CRD。
kubectl apply -f manifest/crds/sparkoperator.k8s.io_sparkapplications.yaml
- 主控实例管理员可通过以下命令查看CRD。
- 主控实例管理员已在所有关联集群上安装Spark Operator。具体操作,请参见步骤一:安装Spark Operator。
-
开发者用户从ACK One控制台获取主控实例的KubeConfig,通过kubectl连接至主控实例。
- 安装AMC命令行工具。具体操作,请参见AMC命令行帮助。
步骤一:安装Spark Operator
- 主控实例管理员登录容器服务管理控制台。
- 在控制台左侧导航栏中,选择 。
- 在应用市场页面单击应用目录页签,然后搜索并选中ack-spark-operator。
- 在ack-spark-operator页面,单击一键部署。
- 在弹出面板中,选择集群和命名空间,然后单击下一步。
- 在参数部分设置sparkJobNamespace为“”,然后单击确定。