工作空间是Serverless Spark的基本单元,用于管理任务、成员、角色和权限。所有的任务开发都需要在具体的工作空间内进行。因此,在开始任务开发之前,您需要先创建工作空间。本文将为您介绍如何在EMR Serverless Spark页面快速创建工作空间。
前提条件
已注册阿里云账号并完成实名认证。具体操作请参见账号注册(PC端)。
已准备创建工作空间所需的账号并授权:
已开通DLF数据湖构建,详情请参见快速入门。支持开通DLF的地域请参见已开通的地域和访问域名。
注意事项
代码的运行环境由所属用户负责管理和配置。
操作步骤
进入EMR Serverless Spark页面。
在左侧导航栏,选择
。在顶部菜单栏处,根据实际情况选择地域。
重要创建工作空间后,不能更改地域。
单击创建工作空间。
在E-MapReduce Serverless Spark页面,完成相关配置。
参数
说明
示例
地域
建议选择与您数据所在地相同的地域。
华东1(杭州)
付费类型
支持包年包月和按量付费。
重要张家口地域仅支持创建按量付费模式的工作空间。
按量付费
工作空间名称
长度限制为1~64个字符,仅可使用中文、字母、数字、短划线(-)和下划线(_)。
说明同一个阿里云账号下的工作空间名称是唯一的,请勿填写已有的名称,否则会提示您重新填写。
emr-serverless-spark
瞬时配额上限
工作空间同时处理任务的最大并发CU数量。
1000
工作空间基础路径
用于存储任务日志、运行事件、资源等数据文件。
建议选择一个开通了OSS-HDFS服务的Bucket,它提供了原生HDFS接口兼容性。如果您的应用场景不涉及HDFS,则可以直接选择一个OSS Bucket。
emr-oss-hdfs
DLF作为元数据服务
用于存储和管理您的元数据。
开通DLF后,系统会为您选择默认的DLF数据目录,默认为UID。如果针对不同集群您期望使用不同的数据目录,则可以按照以下方式新建目录。
单击创建数据目录,在弹出的对话框中输入目录ID,然后单击确定。详情请参见数据目录。
在下拉列表中,选择您新建的数据目录。
emr-dlf
(可选)高级设置
执行角色:指定EMR Serverless Spark运行任务所采用的角色名,角色名称为AliyunEMRSparkJobRunDefaultRole。
EMR Spark使用该角色来访问您在其他云产品中的资源,包括OSS和DLF等产品的资源。
AliyunEMRSparkJobRunDefaultRole
标签:是云资源的标识,能够帮助您从不同维度对具有相同特征的云资源进行分类、搜索和聚合,从而提升资源管理效率。每个工作空间最多支持绑定二十个标签,每个标签由自定义的标签键和标签值组成,满足您多样化的管理需求。同时,标签还支持进行成本分账和按量付费的精细化管理。
您可以在创建工作空间时直接绑定标签,也可以在工作空间创建完成后,随时在工作空间列表页添加或调整标签。通过为资源绑定标签,您可以轻松实现资源的分类与运营优化。
更多标签信息,请参见什么是标签。
自定义输入标签键和标签值
单击创建工作空间。
相关文档
创建工作空间后,您可以开始进行相关任务的开发,例如SparkSQL任务,详情请参见SparkSQL开发快速入门。