新建Hive Storage云计算资源
支持添加Hive Storage类型的数据源,为使用数据资源平台做数据支撑。本文介绍如何新建Hive Storage云计算资源。
前提条件
已有Hive Storage类型数据源。
已创建工作组,具体操作,请参见新建工作组。
操作步骤
登录数据资源平台控制台。
在页面右上角,单击
图标,选择系统设置。
在页面左侧导航栏,单击工作组管理。
在工作组管理页面,选择目标工作组,单击操作列中云计算资源。
在云计算资源页面,单击新建云计算资源。
在新建云计算资源对话框,配置对应参数。
参数
说明
云计算资源标识
Hive Storage云计算资源的标识,支持自定义。
资源描述
可对云计算资源的使用场景等特性进行自定义描述。
适用环境
当工作组为专业模式时,可设置云计算资源的使用环境,分为开发和生产环境,对生产环境的数据读写权限、任务上线发布进行严格权限控制。
云计算资源创建后,云计算资源标识自动添加后缀:_dev(开发)、_prod(生产)。
云计算资源类型
从云计算资源类型下拉列表,选择Hive Storage。
HiveMetastoreUris
hive-site.xml中的Hive.Metastore.Uris,远程元数据存储地址。
库名
访问的Hive Storage数据库的名称。
DefaultFS
core-site.xml中的fs.defaultFS。
文件存储类型
支持hdfs和s3。
Hadoop执行用户
连接hdfs的用户。
HDFS是否高可用
根据需求打开或关闭HDFS是否高可用开关,默认关闭。
NameServices
打开HDFS是否高可用开关时,请输入NameServices。
FailoverProvider
打开HDFS是否高可用开关时,请输入FailoverProvider。
HDFS高可用节点
打开HDFS是否高可用开关时,请输入HDFS高可用节点,多个节点用逗号(,)隔开。
HDFS高可用节点地址
打开HDFS是否高可用开关时,请输入HDFS高可用节点地址,节点地址hdfs-site.xml中的dfs.namenode.rpc-address,格式为
address1,address2
,多个节点用逗号(,)隔开。计算使用的spark云资源
填写Spark云计算资源code,填写HiveStorage资源计算时默认使用的Spark云资源。
应用场景标签
选择云计算资源的应用场景标签,可多选。单击添加标签,可自定义应用场景标签。
配置完成后,单击确定。
在云计算资源列表页面,可查看新建的云计算资源。