安全设置
安全设置是您可以对数据安全及访问进行精细化控制、对Spark任务的开关及鉴权模式的设置,来保障数据的安全性。本文为您介绍如何设置严格权限模式和Spark任务。
严格权限模式
背景信息
Dataphin管理中心支持项目安全模式设置功能,在未设置的情况下,会存在以下安全问题:
不同项目,在项目管理员不知情的情况下,用户可以随意跨项目进行DDL操作。
说明DDL语句详情,请参见DDL语句。
同一项目,用户可以在Dev环境直接操作Prod环境的数据,造成Prod环境数据泄漏或意外变更。
下表以开发者角色为例,介绍安全模式开启与关闭的情况下,对项目的操作权限。
操作
默认(权限模式均未开启)
跨项目安全模式(开启)
生产数据安全模式(开启)
当前项目Dev环境的所有表操作
支持
支持
支持
当前项目Prod环境的所有表操作
支持
支持
不支持
跨项目查询
支持
支持
支持
跨项目DDL
支持
不支持
支持
重要设置安全模式后,项目数据有更高的安全性,但是会导致系统使用流畅程度下降,建议您根据业务需求进行设置。
操作步骤
在Dataphin页面,单击顶部菜单栏的管理中心。
在管理中心页面,按照下图指引设置相应的严格权限模式。
严格权限模式
说明
跨项目安全模式
关闭:在具备操作目标对象权限的前提下,允许跨项目执行DDL任务。
开启:禁止跨项目执行和提交DDL任务。
生产数据安全模式
关闭:允许在Dev环境修改Prod环境数据。
开启:对于Dev-Prod 模式的项目,在Dev环境将不能修改Prod环境的数据。
说明开启后,如需修改Prod环境的数据,需要走发布流程,详情请参见发布中心概述。
Spark任务
背景信息
在使用Spark任务时,需要对逻辑表的访问进行鉴权(读、写等权限)。
不同的计算引擎支持不同版本的Spark任务(MaxCompute引擎中的Spark Jar任务默认使用Spark v2.4.5。Hadoop引擎中的Spark Jar任务使用的版本为TBD)。
MaxCompute引擎下可开启Spark任务鉴权模式。Hadoop引擎下(除Inceptor)不可开启Spark任务鉴权模式。
操作步骤
在Dataphin页面,单击顶部菜单栏的管理中心。
在管理中心页面,按照下图指引设置相应的Spark任务。
Spark任务
说明
Spark任务
关闭:原有的Spark任务仍可进行编辑、删除、执行、提交、发布等操作。
开启:支持创建Spark任务。
鉴权模式
关闭:需开启OpenAPI功能模块的情况下才可开启。
开启:鉴权开启后,Spark的任务的数据访问将进行权限校验,原有的任务若无相应权限,则将导致任务执行失败。
说明开启后可访问逻辑表,且使用逻辑项目和板块的方式访问数据表。