多表合并

计算引擎 是否支持 离线 MaxCompute 是 Hive 是 HiveStorage 是 RDS/MySQL 是 Spark 是 使用说明 来源节点 多表合并算子必须指定2个或者2个以上 来源节点(又称为输入节点,每个来源节点可视为一张表),以求取这些来源节点数据合并的...

两表并集

本文介绍两表并集算子的使用方法及注意事项。...去重合并 两表并集算子默认不做去重合并,输出的数据包含来源节点的所有记录。勾选去重合并后,节点的输出数据将会过滤重复的记录。去重合并的效果示例参考 合并条件 中的示意图。

数据采集

业务相关的时序数据主要包括:QPS、查询RT、QueueTime、PlanningTime查询失败率等查询相关的时序指标,以及TPS、索引build任务个数、写入RT等数据写入相关时序指标。计算节点的主要时序指标包括CPU使用率等相关信息。存储节点相关的时序...

准备数据源和计算源

准备数据源 Dataphin支持对接的数据包括大数据存储型数据源、文件数据源、消息队列数据源、关系型数据源和NoSQL数据源,各模块支持对接的数据源类型及操作指导,请参见 Dataphin支持的数据源。重要 确定业务数据源类型后,在Dataphin创建...

Dataphin支持的数据

背景信息 Dataphin支持对接的数据包括大数据存储型数据源、文件数据源、消息队列数据源、关系型数据源和NoSQL数据源,各模块支持对接的数据源类型说明如下:如果您需要在Dataphin中连接某数据源,则需要先在数据源管理中创建该数据源。...

典型场景

基于湖构建数据平台,支持BI、挖掘等业务 对象存储OSS可以作为湖存储,DLA基于OSS构建一站式的大数据平台。具体包括构建数据湖、数据ETL、交互式查询、机器学习等功能。构建数据湖 实时数据湖:支持DB的CDC与消息数据(如Kafka)入湖,构建...

Dataphin支持的数据

背景信息 Dataphin支持对接的数据包括大数据存储型数据源、文件数据源、消息队列数据源、关系型数据源和NoSQL数据源,各模块支持对接的数据源类型说明如下:如果您需要在Dataphin中连接某数据源,则需要先在数据源管理中创建该数据源。...

应用场景

实时数据通道 1.1 接入多种异构数据并投递到下游多种大数据系统 通过数据总线,您可以实时接入APP、WEB、IoT和数据库等产生的异构数据,统一管理,并投递到下游的分析、归档等系统,构建清晰的数据流,让您更好的释放数据的价值。...

数据源管理概述

功能介绍 多数据源类型接入:Dataphin内置丰富的数据源类型,支持对接的数据包括大数据存储型数据源、文件型数据源、消息队列型数据源、关系型数据源和NoSQL数据源。更多信息,请参见 Dataphin支持的数据源。自定义数据源类型:在内置的...

数据源管理概述

功能介绍 多数据源类型接入:Dataphin内置丰富的数据源类型,支持对接的数据包括大数据存储型数据源、文件型数据源、消息队列型数据源、关系型数据源和NoSQL数据源。更多信息,请参见 Dataphin支持的数据源。自定义数据源类型:在内置的...

开发Dataphin数据源并加速数据查询

数据来源 支持 MaxCompute 和 Hologres 两个数据来源。MaxCompute(默认):支持选择 逻辑表 和 物理表,计算空间只能选择绑定了MaxCompute计算源的项目。Hologres:仅支持选择 物理表,计算空间只能选择绑定了Hologres计算源的项目。说明 ...

什么是DataWorks

DataWorks基于MaxCompute、Hologres、EMR、AnalyticDB、CDP等大数据引擎,为数据仓库、数据湖、湖仓一体等解决方案提供统一的全链路大数据开发治理平台。从2009年起,DataWorks不断沉淀阿里巴巴大数据建设方法论,支撑数据中台建设,同时与...

互联网、电商行业离线大数据分析

通过阿里云MaxCompute、云数据库RDS MySQL、DataWorks等产品,可以实现互联网、电商网站的离线数据分析,且支持通过DataV大屏展示分析后的业务指标数据。概述 电商网站的销售数据通过大数据进行分析后,可以在屏幕展示销售指标、客户指标...

DescribePackages-查询数据包的信息

调用本接口查询已完成扫描授权的MaxCompute数据包的信息,例如数据包的名称、数据包所属者的账号、数据包的风险等级等。接口说明 本接口一般用于 MaxCompute 数据包列表查询,便于搜索和敏感信息概览。QPS 限制 本接口的单用户 QPS 限制为 ...

CREATE VIEW

CREATE VIEW 用于创建视图。...select_stmt:视图中的数据来源。示例 创建视图finished_orders_v1,视图数据来源为tpch Schema中的finished_orders表数据。CREATE VIEW tpch.finished_orders_v1 AS SELECT*FROM finished_orders;

敏感数据溯源

解决方案:您需要确认溯源数据的来源,确保溯源的数据为本租户名下的数据。原因三:被溯源的文件中不包含水印信息。解决方案:您需要检查目标文件是否开启 数据水印,DataWorks仅支持对开启 数据水印 功能之后所执行的数据访问操作进行溯源...

新建注册上挂指标

在 选择数据来源 页面,配置参数后,单击 下一步。区域 参数 描述 选择来源数据 来源表 选择注册上挂指标的数据来源。建议选择生产数据(即非Dev项目或数据板块产生的数据),以免更新至生产调度运维时,该对象在生产环境不存在导致操作...

新建注册上挂指标

在 选择数据来源 页面,配置参数后,单击 下一步。区域 参数 描述 选择来源数据 来源表 选择注册上挂指标的数据来源。建议选择生产数据(即非Dev项目或数据板块产生的数据),以免更新至生产调度运维时,该对象在生产环境不存在导致操作...

受众与核心能力

产品定位 DataWorks致力于为数据开发者、数据分析师、数据资产管理者,打造一个具备开放自主开发与全栈数据研发能力的一站式、标准化、可视化、透明化的智能大数据全生命周期云研发平台。DataWorks赋予用户仅通过单一平台,即可实现数据...

概述

解决方案 T+1全量同步一键建仓是指通过DLA控制台配置数据源(RDS、PolarDB for MySQL、MongoDB数据源、ECS自建数据数据)和目标OSS数据仓库,系统按照您设定的数据同步时间自动、无缝的帮您把数据源中的数据同步到目标数据仓库OSS中,...

我的看板

本文介绍可视化应用中心下我的看板模块的数据来源和使用步骤。说明 可视化应用中心功能为7.0版本产品新增功能,请根据 可视化应用中心 环境进行操作。数据来源 在工作台中创建并发布的数据看板内容,会同步在此处展示,若数据看板仅编辑...

批量或异步插入数据

因为创建的数据分区会在后台合并成更大的分区(以优化读取查询的数据),每秒发送太多的插入查询可能会导致后台合并无法跟上新分区的数量。然而,当您使用异步插入数据时,可以使用更高速的插入查询速率。异步插入数据的详细信息,请参见 ...

数据源管理

数据源管理是管理入湖数据来源的入口,支持RDS MySQL,Kafka作为数据湖的来源。您可以新建、编辑和删除数据源。重要 数据入湖功能已经停止更新,如果您有数据入湖需求请参考:数据入湖停止更新公告。创建数据源 连接属性配置。连接名称:请...

交叉透视表

数据项配置 说明 数据源 组件的数据源中通过 代码编辑 或 可视化编辑 展示了组件所包含数据字段。也可以修改 数据类型,灵活配置组件数据数据映射 当您需要自定义图表字段配置时,可以在 数据映射 模块设置不同的字段映射内容,将这些...

基于原生DDL语句创建元表

数据源 选择创建元表的来源数据源。说明 Dataphin将自动根据您的DDL语句自动识别数据源类型,您可以在数据源下拉选项中,选择对应数据源。来源表 选择数据源后,在来源表下拉选项中选择对应的来源表。Connector Dataphin将根据代码自动识别...

基于原生DDL语句创建元表

数据源 选择创建元表的来源数据源。说明 Dataphin将自动根据您的DDL语句自动识别数据源类型,您可以在数据源下拉选项中,选择对应数据源。来源表 选择数据源后,在来源表下拉选项中选择对应的来源表。Connector Dataphin将根据代码自动识别...

配置本地文件输入组件

导出sheet名 可选是否导出数据的来源sheet。导出内容为 {文件名}-{sheet名}。文件编码 选择文件编码的方式。系统支持UTF-8和GBK方式。新建输出字段 新建输出字段:单击 新建输出字段。根据页面提示,配置 来源序号 和 字段,选择字段类型。...

配置本地文件输入组件

导出sheet名 可选是否导出数据的来源sheet。导出内容为 {文件名}-{sheet名}。文件编码 选择文件编码的方式。系统支持UTF-8和GBK方式。新建输出字段 新建输出字段:单击 新建输出字段。根据页面提示,配置 来源序号 和 字段,选择字段类型。...

数据分析概述

进入 数据分析 首页,页面包含以下两个区域:快捷入口:在 快捷入口 区域,单击对应图标进入 SQL查询、电子表格、数据上传 等模块进行数据分析操作。最近编辑:在 最近编辑 区域,可以查看最近编辑的文件,单击文件名打开文件进行后续操作...

创建MaxCompute数据

背景信息 MaxCompute即阿里云大数据计算服务,适用于数据分析场景的企业级SaaS(Software as a Service)模式云数据仓库,以Serverless架构提供快速、全托管的在线数据仓库服务,消除了传统数据平台在资源扩展性和弹性方面的限制,最小化...

创建MaxCompute数据

背景信息 MaxCompute即阿里云大数据计算服务,适用于数据分析场景的企业级SaaS(Software as a Service)模式云数据仓库,以Serverless架构提供快速、全托管的在线数据仓库服务,消除了传统数据平台在资源扩展性和弹性方面的限制,最小化...

数据迁移

本文为您介绍数据迁移的最佳实践,包含将其他业务平台的业务数据或日志数据迁移至MaxCompute,或将MaxCompute的数据迁移至其它业务平台。背景信息 传统关系型数据库不适合处理海量数据,如果您的数据存放在传统的关系型数据库且数据量庞大...

实时同步任务运行与管理

来源数据源:数据同步的来源数据源。去向数据源类型:去向数据源的类型。去向数据源:数据同步的去向数据源。责任人:实时任务所在的工作空间责任人。当前起始位点:目前开始消费增量数据的时间点。数据读取速度(BPS):数据同步读取数据...

创建Impala数据

通过创建Impala数据源能够实现Dataphin读取Impala的业务数据或向Impala写入数据。本文为您介绍如何创建Impala数据源。背景信息 Impala是用于处理存储在Hadoop集群中大量数据的SQL查询引擎。如果您使用的是Impala,在导出Dataphin数据至...

创建Hudi数据

背景信息 Hudi即Apache Hudi,Hudi是一个通用的大数据存储系统,将核心仓库和数据库功能直接引入到数据库中,并支持记录级别的插入更新和删除数据的能力。权限说明 仅支持 超级管理员、数据源管理员、板块架构师、项目管理员 角色创建数据...

配置资产数据

本文档介绍配置资产数据的方法,以及资产数据面板的内容,包括数据接口、数据源、数据过滤器和数据轮询频次等。操作步骤 登录 DataV控制台。在 我的可视化 页面,单击您创建的可视化应用项目上方的 编辑 按钮。在画布编辑器页面,单击 图层...

升级

增值功能包包括 数据萃取、数据服务、资源治理、资产安全、资产质量、智能运维 和 数据标准。可选增值功能包 描述 数据萃取 面向各行各业数据价值深度挖掘的诉求,数据萃取为您提供可视化的ID链接、行为解析和标签萃取,进一步帮助您提炼可...

创建Hudi数据

背景信息 Hudi即Apache Hudi,Hudi是一个通用的大数据存储系统,将核心仓库和数据库功能直接引入到数据库中,并支持记录级别的插入更新和删除数据的能力。更多信息,请参见 Apache Hudi官网。权限说明 仅支持 超级管理员、数据源管理员、...

创建Impala数据

通过创建Impala数据源能够实现Dataphin读取Impala的业务数据或向Impala写入数据。本文为您介绍如何创建Impala数据源。背景信息 Impala是用于处理存储在Hadoop集群中大量数据的SQL查询引擎。如果您使用的是Impala,在导出Dataphin数据至...

新建TDengine数据

说明 通常情况下,生产数据源和开发数据源需配置非同一个数据源,以使开发数据源与生产数据源的环境隔离,降低开发数据源对生产数据源的影响。但Dataphin也支持配置成同一个数据源,即相同参数值。配置 集群配置 区域的参数。参数 描述 ...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
云原生大数据计算服务 MaxCompute 云数据库 RDS 数据库备份 DBS 数据传输服务 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用