Quick BI智能报表数据集关联表报错“当前数据集最大...

问题描述 Quick BI智能报表数据集关联表报错“当前数据集最大支持关联3个数据集”。解决方案 钉钉智能报表下的钉钉数据源会有这个限制,最多只可以join3张表。适用于 Quick BI智能报表

电商网站智能推荐

电商网站智能推荐基于阿里巴巴的大数据和人工智能技术,结合在电商行业的多年积累,为开发者提供个性化推荐服务,提升商品的购买率和转化率。概述 本实践以电商网站为例,通过日志服务采集日志,将RDS作为后端数据服务、MaxCompute作为数据...

产品概述

产品描述 Dataphin是集产品、技术、方法论于一体的智能大数据平台建设引擎,为您提供数据引入、规范定义、建模研发、资产管理、数据服务等全链路智能数据建设及治理服务。功能 描述 Dataphin全托管 全托管又称公共云多租户模式,只需购买...

首页

DataWorks智能数据建模首页,为您展示了当前租户内创建的模型及派生指标数量,以及近三十天内当前工作空间成功发布至生产环境的模型列表,帮助您了解模型动态概况。本文为您介绍DataWorks智能数据建模首页信息概览。进入首页 进入数据开发...

数据建模新能力解读

以下为您系列讲解阿里云智能数据建模新能力解读。数据建模的发展背景 主要产品:DataWorks 课程时长:5分钟 当前主流的数据建模方法论 主要产品:DataWorks 课程时长:4分钟 数据建模的主要能力解读 主要产品:DataWorks 课程时长:22分钟 ...

关系图

DataWorks智能数据建模的关系图,帮助您快速构建数据仓库模型架构图,直观展示数据仓库中维度、维度表、明细表、汇总表、应用表等各模型之间的关系。一个关系图承载一个数据仓库模型,一个账号支持创建多个关系图。本文为您介绍关系图的...

智能数据建模计费标准

智能数据建模使用包年包月计费模式,根据您在智能数据建模产品内创建的对象数量进行计费。您可根据实际需求,选购智能数据建模产品的不同规格。同时,智能数据建模为您提供了单独计费的行业模型模版,您可购买该模版快速构建属于您的数据...

导入

DataWorks智能数据建模的导入工具,为您提供了数据模型、数据标准等多种类型的对象模板,您可基于不同模板批量创建相应对象。该功能无需多次重复执行创建操作,即可快速生成多个对象,节省大量时间成本。本文为您介绍如何通过批量导入功能...

自动化治理-物化视图

当您在面对大数据计算任务频繁且存在大量相似子查询场景时,DataWorks支持自动化治理,智能推荐物化视图,为您提供了一种智能化、自动化的解决方案。当您启用此功能时,DataWorks能够自动识别和分类MaxCompute中的相似子查询,并生成物化...

数据建模:智能数据建模

智能数据建模是阿里云DataWorks自主研发的智能数据建模产品,沉淀了阿里巴巴十多年来数仓建模方法论的最佳实践,包含数仓规划、数据标准、维度建模及数据指标四大模块,帮助企业在搭建数据中台、数据集市建设过程中提升建模及逆向建模的...

兼容性概述

商业智能(BI)分析工具可以将复杂的数据转换成图表、仪表盘等形式,以直观的方式展示分析结果,使您能够快速把握业务状态。BI分析工具连接MaxCompute,能够充分利用MaxCompute强大的数据处理能力和高性能的计算资源,为您带来更高效的数据...

概述

前提条件 您需要开通DataWorks智能数据建模后,才可以使用该产品功能,详情请参见 智能数据建模计费标准。使用限制 DataWorks工作空间中,不同角色使用智能数据建模的限制如下:浏览模型详情:访客、空间管理员、模型设计师、项目所有者 等...

智能监控

如果基线上的任务或节点的上游节点影响到基线上受保障的任务的数据产出,则智能监控会生成一个事件,事件默认报警给任务责任人。详情请参见 智能监控。如上图所示,假设整个DataWorks只有6个任务节点,任务D和任务E属于受保障基线上的节点...

智能监控概述

功能介绍 各模块功能介绍如下:功能 描述 智能基线 智能基线能够及时捕捉导致基线上任务无法按时完成的异常情况并提前预警,保障复杂依赖场景下重要数据能在预期时间内顺利产出。创建及管理基线,详情请参见:基线管理。查看基线实例运行...

SQL增强操作

功能 是否支持 限制 云原生大数据计算服务MaxCompute-EXPLAIN 是 无 云原生大数据计算服务MaxCompute-CLONE TABLE 是 无 云原生大数据计算服务MaxCompute-参数化视图 是 创建参数化视图 不支持表值参数table。支持any以及MaxCompute的所有...

技术架构选型

本教程中使用阿里云大数据产品Dataphin配合MaxCompute,完成整体的数据建模和研发流程。完整的技术架构如下图所示。其中,Dataphin的数据集成及同步负责完成源业务系统数据引入。MaxCompute作为整个大数据开发过程中的离线计算引擎。...

Dataphin支持的实时数据

Ververica Flink支持的实时数据源 存储类型 数据源类型 读 写 维表读 大数据存储 MaxCompute 支持 支持 支持 DataHub 支持 支持-Hologres 支持 支持 支持 数据湖 Hudi 支持 支持-Iceberg 支持(仅支持原生DDL方式)支持(仅支持原生DDL方式...

Dataphin支持的实时数据

Ververica Flink支持的实时数据源 存储类型 数据源类型 读 写 维表读 大数据存储 MaxCompute 支持 支持 支持 DataHub 支持 支持-Hologres 支持 支持 支持 数据湖 Hudi 支持 支持-Iceberg 支持(仅支持原生DDL方式)支持(仅支持原生DDL方式...

数据集成支持的数据

离线集成支持的数据数据源 读取 写入 大数据存储型数据源 MaxCompute 支持 支持 Hologres 支持 支持 IMPALA 支持 支持 TDH Inceptor 支持 支持 StarRocks 支持 不支持 Hudi 支持 支持 Doris 支持 不支持 GreenPlum 支持 支持 TDengine ...

数据集成支持的数据

离线集成支持的数据数据源 读取 写入 大数据存储型数据源 MaxCompute 支持 支持 Hive 支持 支持 Hologres 支持 支持 IMPALA 支持 支持 TDH Inceptor 支持 支持 Kudu 支持 支持 StarRocks 支持 支持 Hudi 支持 支持 Doris 支持 支持 ...

准备数据源和计算源

准备数据源 Dataphin支持对接的数据源包括大数据存储型数据源、文件数据源、消息队列数据源、关系型数据源和NoSQL数据源,各模块支持对接的数据源类型及操作指导,请参见 Dataphin支持的数据源。重要 确定业务数据源类型后,在Dataphin创建...

准备数据源和计算源

准备数据源 Dataphin支持对接的数据源包括大数据存储型数据源、文件数据源、消息队列数据源、关系型数据源和NoSQL数据源,各模块支持对接的数据源类型及操作指导,请参见 Dataphin支持的数据源。重要 确定业务数据源类型后,在Dataphin创建...

创建MaxCompute数据

背景信息 MaxCompute即阿里云大数据计算服务,适用于数据分析场景的企业级SaaS(Software as a Service)模式云数据仓库,以Serverless架构提供快速、全托管的在线数据仓库服务,消除了传统数据平台在资源扩展性和弹性方面的限制,最小化...

创建MaxCompute数据

背景信息 MaxCompute即阿里云大数据计算服务,适用于数据分析场景的企业级SaaS(Software as a Service)模式云数据仓库,以Serverless架构提供快速、全托管的在线数据仓库服务,消除了传统数据平台在资源扩展性和弹性方面的限制,最小化...

数据源白名单配置

产品名称 操作说明 云原生大数据计算服务MaxCompute 设置白名单 实时数仓Hologres IP白名单 云数据库ClickHouse 设置白名单 消息队列Kafka版 配置白名单 云原生分布式数据库PolarDB-X 设置白名单 云原生分布式数据库PolarDB-X(2.0)设置白...

创建Hudi数据

背景信息 Hudi即Apache Hudi,Hudi是一个通用的大数据存储系统,将核心仓库和数据库功能直接引入到数据库中,并支持记录级别的插入更新和删除数据的能力。权限说明 仅支持 超级管理员、数据源管理员、板块架构师、项目管理员 角色创建数据...

创建Hudi数据

背景信息 Hudi即Apache Hudi,Hudi是一个通用的大数据存储系统,将核心仓库和数据库功能直接引入到数据库中,并支持记录级别的插入更新和删除数据的能力。更多信息,请参见 Apache Hudi官网。权限说明 仅支持 超级管理员、数据源管理员、...

配置DataHub输入组件

配置DataHub输入组件后,可以将DataHub数据源中的数据读取至大数据平台对接的存储系统内,并进行数据整合和二次加工。本文为您介绍如何配置DataHub输入组件。前提条件 已创建离线单条管道,详情请参见 通过单条管道创建集成任务。操作步骤 ...

配置DataHub输入组件

配置DataHub输入组件后,可以将DataHub数据源中的数据读取至大数据平台对接的存储系统内,并进行数据整合和二次加工。本文为您介绍如何配置DataHub输入组件。前提条件 已创建离线单条管道,详情请参见 通过单条管道创建集成任务。操作步骤 ...

创建Impala数据

在 新建数据源 对话框的 大数据存储 区域,选择 Impala。如果您最近使用过Impala,也可以在 最近使用 区域选择Impala。同时,您也可以在搜索框中,输入Impala的关键词,快速筛选。在 新建Impala数据源 对话框中,配置连接数据源参数。配置...

配置DataHub输出组件

配置DataHub输出组件,可以将外部数据库中读取数据写入到DataHub,或从大数据平台对接的存储系统中将数据复制推送至DataHub,进行数据整合和再加工。本文为您介绍如何配置DataHub输出组件。前提条件 已创建DataHub数据源。具体操作,请参见...

配置DataHub输出组件

配置DataHub输出组件,可以将外部数据库中读取数据写入到DataHub,或从大数据平台对接的存储系统中将数据复制推送至DataHub,进行数据整合和再加工。本文为您介绍如何配置DataHub输出组件。前提条件 已创建DataHub数据源。具体操作,请参见...

配置DM(达梦)输出组件

配置DM(达梦)输出组件,可以将外部数据库中读取的数据写入到DM(达梦),或从大数据平台对接的存储系统中将数据复制推送至DM(达梦),进行数据整合和再加工。本文为您介绍如何配置DM(达梦)输出组件。前提条件 已创建DM(达梦)数据源...

配置DM(达梦)输出组件

配置DM(达梦)输出组件,可以将外部数据库中读取的数据写入到DM(达梦),或从大数据平台对接的存储系统中将数据复制推送至DM(达梦),进行数据整合和再加工。本文为您介绍如何配置DM(达梦)输出组件。前提条件 已创建DM(达梦)数据源...

配置ArgoDB输出组件

配置ArgoDB输出组件,可以将外部数据库中读取的数据写入到ArgoDB,或从大数据平台对接的存储系统中将数据复制推送至ArgoDB,进行数据整合和再加工。本文为您介绍如何配置ArgoDB输出组件。使用限制 ArgoDB输出组件支持写入文件格式为orc、...

新建TDengine数据

在 新建数据源 对话框的 大数据存储 区域,选择 TDengine。如果您最近使用过TDengine,也可以在 最近使用 区域选择TDengine。同时,您也可以在搜索框中,输入TDengine的关键词,快速搜索。在 新建TDengine数据源 对话框中,配置数据源的...

新建TDengine数据

在 新建数据源 对话框的 大数据存储 区域,选择 TDengine。如果您最近使用过TDengine,也可以在 最近使用 区域选择TDengine。同时,您也可以在搜索框中,输入TDengine的关键词,快速搜索。在 新建TDengine数据源 对话框中,配置数据源的...

创建Teradata数据

通过创建Teradata数据源能够实现Dataphin读取Teradata的业务数据或向Teradata写入数据。本文为您介绍如何创建Teradata数据源。背景信息 Teradata是一款大型数据仓库系统。如果您使用的是Teradata,在对接Dataphin进行数据开发或导出...

新建Doris数据

在新建数据源对话框的 大数据存储 区域,选择Doris。如果您最近使用过Doris,也可以在最近使用区域选择Doris。同时,您也可以在搜索框中,输入Doris的关键词,快速筛选。在 新建Doris数据源 对话框中,配置连接数据源参数。配置数据源的...

创建Impala数据

在 新建数据源 对话框的 大数据存储 区域,选择 Impala。如果您最近使用过Impala,也可以在 最近使用 区域选择Impala。同时,您也可以在搜索框中,输入Impala的关键词,快速筛选。在 新建Impala数据源 对话框中,配置连接数据源参数。配置...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
云数据库 RDS 数据库审计 智能数据建设与治理 Dataphin 智能推荐 AIRec 数据库备份 DBS 弹性公网IP
新人特惠 爆款特惠 最新活动 免费试用