多表合并

本文介绍多表合并算子的使用方法及注意事项。...去重合并 多表合并算子默认不做去重合并,输出的数据包含来源节点的所有记录。勾选去重合并后,节点的输出数据将会过滤重复的记录。去重合并的效果示例参考 对齐字段 中的示意图。

轮播页面

轮播页面组件的数据包括 大屏轮播数据接口 和 当前大屏数据接口。大屏轮播数据接口 配置字段说明 字段 说明 id 可视化应用中各轮播页面的ID。serieName 可视化应用中各轮播页面的名称。url 可视化应用中各轮播页面的链接。当前大屏数据接口...

数据采集

业务相关的时序数据主要包括:QPS、查询RT、QueueTime、PlanningTime查询失败率等查询相关的时序指标,以及TPS、索引build任务个数、写入RT等数据写入相关时序指标。计算节点的主要时序指标包括CPU使用率等相关信息。存储节点相关的时序...

准备数据源和计算源

准备数据源 Dataphin支持对接的数据包括大数据存储型数据源、文件数据源、消息队列数据源、关系型数据源和NoSQL数据源,各模块支持对接的数据源类型及操作指导,请参见 Dataphin支持的数据源。重要 确定业务数据源类型后,在Dataphin创建...

准备数据源和计算源

准备数据源 Dataphin支持对接的数据包括大数据存储型数据源、文件数据源、消息队列数据源、关系型数据源和NoSQL数据源,各模块支持对接的数据源类型及操作指导,请参见 Dataphin支持的数据源。重要 确定业务数据源类型后,在Dataphin创建...

应用场景

实时数据通道 1.1 接入多种异构数据并投递到下游多种数据系统 通过数据总线,您可以实时接入APP、WEB、IoT和数据库等产生的异构数据,统一管理,并投递到下游的分析、归档等系统,构建清晰的数据流,让您更好的释放数据的价值。...

数据源管理概述

功能介绍 多数据源类型接入:Dataphin内置丰富的数据源类型,支持对接的数据包括大数据存储型数据源、文件型数据源、消息队列型数据源、关系型数据源和NoSQL数据源。更多信息,请参见 Dataphin支持的数据源。自定义数据源类型:在内置...

数据源管理概述

功能介绍 多数据源类型接入:Dataphin内置丰富的数据源类型,支持对接的数据包括大数据存储型数据源、文件型数据源、消息队列型数据源、关系型数据源和NoSQL数据源。更多信息,请参见 Dataphin支持的数据源。自定义数据源类型:在内置...

Dataphin支持的数据

背景信息 Dataphin支持对接的数据包括大数据存储型数据源、文件数据源、消息队列数据源、关系型数据源和NoSQL数据源,各模块支持对接的数据源类型说明如下:如果您需要在Dataphin中连接某数据源,则需要先在数据源管理中创建该数据源。...

Dataphin支持的数据

背景信息 Dataphin支持对接的数据包括大数据存储型数据源、文件数据源、消息队列数据源、关系型数据源和NoSQL数据源,各模块支持对接的数据源类型说明如下:如果您需要在Dataphin中连接某数据源,则需要先在数据源管理中创建该数据源。...

什么是DataWorks

产品架构 DataWorks十多年沉淀数百项核心能力,通过 智能数据建模、全域数据集成、高效数据生产、主动数据治理、全面数据安全、数据分析服务六全链路数据治理的能力,帮助企业治理内部不断上涨数据悬河”,释放企业的数据生产力。...

开发Dataphin数据源并加速数据查询

Dataphin数据源的数据来源支持选择物理表或逻辑表。在 逻辑表选择 和 物理表选择 区域为您展示Dataphin内所有的业务板块和项目下逻辑表和物理表,您可以根据业务情况进行选择。选择各逻辑表输出时是否包含关系模型。选择Dataphin数据源的...

典型场景

构建数据湖 实时数据湖:支持DB的CDC与消息数据(如Kafka)入湖,构建规模的可以增删改查的数据集,延迟为T+10分钟。一键建仓:支持数据库一键入湖,T+1天。文件上传:数据上传后,DLA元数据发现功能可自动发现并构建好元数据体系。数据...

受众与核心能力

数据地图(公共云)/数据管理(专有云):提供强大的数据搜索、数据类目、数据血缘等能力。数据资产管理(仅专有云):统一管理整个平台的数据表、API等各类数据资产。数据安全:数据脱敏、权限控制等能力。应用开发(仅公共云):基于Web...

概述

业务挑战 部分阿里云用户会将阿里云关系型数据库RDS、PolarDB for MySQL、MongoDB或者云服务器ECS自建数据库作为业务系统数据库,随着业务数据的增长,业务数据库存储的数据也越来越多。但RDS、PolarDB for MySQL、MongoDB或者ECS自建...

应用场景

数据审计 智能解析数据库及数据的通信流量,细粒度审计数据访问行为,通过对数据源全量行为的审计溯源、危险攻击的实时告警、风险语句的智能预警,为您最敏感的数据库资产做好最安全的监控保障。个人信息合规 可精准区分和保护个人数据,...

升级

增值功能包包括 数据萃取、数据服务、资源治理、资产安全、资产质量、智能运维 和 数据标准。可选增值功能包 描述 数据萃取 面向各行各业数据价值深度挖掘的诉求,数据萃取为您提供可视化的ID链接、行为解析和标签萃取,进一步帮助您提炼可...

敏感数据溯源

解决方案:您需要确认溯源数据的来源,确保溯源的数据为本租户名下的数据。原因三:被溯源的文件中不包含水印信息。解决方案:您需要检查目标文件是否开启 数据水印,DataWorks仅支持对开启 数据水印 功能之后所执行的数据访问操作进行溯源...

创建MaxCompute数据

如果需要根据所处环境自动访问对应环境的数据源,请通过${数据源编码}.table 或${数据源编码}.schema.table 的变量格式访问。更多信息,请参见 Dataphin数据源表开发方式。重要 目前仅支持 MySQL、Hologres、MaxCompute 数据源。数据源编码...

创建MaxCompute数据

如果需要根据所处环境自动访问对应环境的数据源,请通过${数据源编码}.table 或${数据源编码}.schema.table 的变量格式访问。更多信息,请参见 Flink_SQL任务开发方式。重要 目前仅支持 MySQL、Hologres、MaxCompute 数据源。数据源编码...

创建Impala数据

使用限制 Dataphin的Impala数据源的数据集成使用JDBC的方式进行集成,因此性能相较于Hive较差,若您集成的表为非Kudu表,您可使用Hive数据源及输入输出组件集成。仅当连接E-MapReduce 5.x版本的Impala数据源时,才支持使用DLF获取元数据。...

创建Hudi数据

本文为您介绍如何创建Hudi数据源。背景信息 Hudi即Apache Hudi,Hudi是一个通用的数据存储系统,将核心仓库和数据库功能直接引入到数据库中,并...同步到Hive的数据库名称:填写同步到Hive的数据库名称。单击 确定,完成Hudi数据源的创建。

DescribeColumns-查询数据资产表中列的数据

调用DescribeColumns接口查询数据安全中心连接授权的MaxCompute、RDS等数据资产表中列的数据。接口说明 本接口一般用于敏感数据资产信息表中列数据的查看,便于用户准确的对敏感数据进行分析。注意事项 DescribeColumns 接口已修订为 ...

创建Hudi数据

同步到Hive的数据库名称:填写同步到Hive的数据库名称。单击 确定,完成Hudi数据源的创建。重要 创建Hudi数据源时不支持测试数据源是否可以和Dataphin进行正常的连通,因此需要您确保连接信息的正确性。您可根据 网络连通解决方案 自行排查...

批量或异步插入数据

因为创建的数据分区会在后台合并成更大的分区(以优化读取查询的数据),每秒发送太多的插入查询可能会导致后台合并无法跟上新分区的数量。然而,当您使用异步插入数据时,可以使用更高速的插入查询速率。异步插入数据的详细信息,请参见 ...

数据分析概述

DataWorks提供的数据分析平台,可以流畅地进行数据处理、分析、加工及可视化操作。在数据分析板块中,您不仅可以在线洞察数据,还可以编辑和共享数据。本文为您介绍数据分析平台的优势、功能、权限等概要信息。产品优势 与本地数据分析相比...

新建TDengine数据

如果需要根据所处环境自动访问对应环境的数据源,请通过${数据源编码}.table 或${数据源编码}.schema.table 的变量格式访问。更多信息,请参见 Dataphin数据源表开发方式。重要 数据源编码配置成功后不支持修改。数据源描述 对数据源的简单...

创建Impala数据

使用限制 Dataphin的Impala数据源的数据集成使用JDBC的方式进行集成,因此性能相较于Hive较差,若您集成的表为非Kudu表,您可使用Hive数据源及输入输出组件集成。仅当连接E-MapReduce 5.x版本的Impala数据源时,才支持使用DLF获取元数据。...

配置资产数据

本文档介绍配置资产数据的方法,以及资产数据面板的内容,包括数据接口、数据源、数据过滤器和数据轮询频次等。操作步骤 登录 DataV控制台。在 我的可视化 页面,单击您创建的可视化应用项目上方的 编辑 按钮。在画布编辑器页面,单击 图层...

数据迁移

本文为您介绍数据迁移的最佳实践,包含将其他业务平台的业务数据或日志数据迁移至MaxCompute,或将MaxCompute的数据迁移至其它业务平台。背景信息 传统关系型数据库不适合处理海量数据,如果您的数据存放在传统的关系型数据库且数据量庞大...

限制说明

数据大小 云数据库 Memcache 版支持的单条缓存数据的 Key 最大不超过 1 KB,Value 最大不超过 1 MB,过大的数据不适合存储。事务支持 云数据库 Memcache 版不支持事务,有事务性要求的数据不适合写入,而应该直接写入数据库。使用场景 当...

新建TDengine数据

如果需要根据所处环境自动访问对应环境的数据源,请通过${数据源编码}.table 或${数据源编码}.schema.table 的变量格式访问。更多信息,请参见 Flink_SQL任务开发方式。重要 数据源编码配置成功后不支持修改。数据源描述 对数据源的简单...

新建注册上挂指标

区域 参数 描述 选择来源数据 来源表 选择注册上挂指标的数据来源。建议选择生产数据(即非Dev项目或数据板块产生的数据),以免更新至生产调度运维时,该对象在生产环境不存在导致操作失败,或者导致自动解析依赖关系失败。如您选择生产...

DescribePackages-查询数据包的信息

说明 如果根据数据资产包命中的敏感数据识别规则 ID 查询 SDPP 连接授权的 MaxCompute 的数据资产包列表,敏感数据识别规则 ID 可调用 DescribeRules 接口获取。266666 InstanceId long 否 数据资产包所属资产实例 ID。说明 如果根据数据...

新建Doris数据

如果需要根据所处环境自动访问对应环境的数据源,请通过${数据源编码}.table 或${数据源编码}.schema.table 的变量格式访问。更多信息,请参见 Dataphin数据源表开发方式。重要 目前仅支持 MySQL、Hologres、MaxCompute 数据源。数据源编码...

新建Doris数据

如果需要根据所处环境自动访问对应环境的数据源,请通过${数据源编码}.table 或${数据源编码}.schema.table 的变量格式访问。更多信息,请参见 Flink_SQL任务开发方式。重要 目前仅支持 MySQL、Hologres、MaxCompute 数据源。数据源编码...

新建注册上挂指标

区域 参数 描述 选择来源数据 来源表 选择注册上挂指标的数据来源。建议选择生产数据(即非Dev项目或数据板块产生的数据),以免更新至生产调度运维时,该对象在生产环境不存在导致操作失败,或者导致自动解析依赖关系失败。如您选择生产...

创建Hologres数据

在引入Hologres的业务数据至Dataphin和将Dataphin的数据写入至Hologres的场景中,您需要先创建Hologres数据源。本文为您介绍如何新建Hologres数据源。背景信息 Hologres即阿里云交互式分析Hologres,是阿里巴巴自主研发的一款交互式分析...

数据源管理

数据源管理是管理入湖数据来源的入口,支持RDS MySQL,Kafka作为数据湖的来源。您可以新建、编辑和删除数据源。重要 数据入湖功能已经停止更新,如果您有数据入湖需求请参考:数据入湖停止更新公告。创建数据源 连接属性配置。连接名称:请...

交叉透视表

数据项配置 说明 数据源 组件的数据源中通过 代码编辑 或 可视化编辑 展示了组件所包含的数据字段。也可以修改 数据类型,灵活配置组件数据数据映射 当您需要自定义图表字段配置时,可以在 数据映射 模块设置不同的字段映射内容,将这些...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
云原生大数据计算服务 MaxCompute 云数据库 RDS 数据传输服务 数据库备份 DBS 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用