使用须知

了解开源Spark SQL 通过开源Spark SQL访问数据库的数据分为以下三个级别:Catalog:用来标识用户不同的数据源。Namespace:与数据库中的Database或者Schema相对应。Table:与数据库中的表相对应。了解Lindorm计算引擎SQL 根据您已开通的...

DataWorks新版数据源公告

DataWorks内的MaxCompute、Hologres、AnalyticDB for PostgreSQL、AnalyticDB for MySQL、ClickHouse计算引擎合并入数据源管理,变更如下:创建计算引擎:原绑定计算引擎实例界面将不再使用,后续创建计算引擎需直接通过创建数据源来实现。...

生成数据API

如果没有开通Hologres,也可以使用 数据开发 的MySQL数据源来测试。操作步骤 由于数据服务生成的API需发布至网关统一管理。若您未开通API网关,请 免费开通;若您已开通,请跳过此步骤。新建业务流程。业务名称:retail_e_commerce_2。API...

采集数据

本文为您介绍如何新建OSS和RDS数据源来访问本教程所提供的用户信息与网站日志数据,配置数据同步链路至私有OSS数据源,并通过EMR Hive节点建表去查询同步后的数据,完成数据同步的操作过程。前提条件 开始本文的操作前,请准备好需要使用的...

数据服务入门

步骤一:创建数据源并配置网络连通性 使用数据服务创建API前,您需将数据库或数据仓库添加为DataWorks的数据源,并保障数据服务资源组与您的目标数据源网络连通,以便调用API时DataWorks可成功访问数据源。说明 DataWorks工作空间将集群或...

配置并管理实时同步任务

完成数据源、网络、资源的准备配置后,您可创建实时同步节点,同步数据至Hologres。本文为您介绍如何创建数据实时同步任务,并在创建完成后查看任务运行情况。前提条件 已完成数据源配置。您需要在数据集成同步任务配置前,配置好您需要...

DataStudio侧实时同步任务配置

完成数据源、网络、资源的准备配置后,您可创建实时同步节点,将多种输入及输出数据源搭配组成同步链路,进行单表或整库数据的实时增量同步。本文为您介绍如何创建单表或整库增量数据实时同步任务,并在创建完成后查看任务运行情况。前提...

异构数据源访问

若您需要通过 AnalyticDB PostgreSQL版 访问外部异构数据源(HDFS、Hive和JDBC)时,可以使用异构数据源访问功能将外部数据转换为 AnalyticDB PostgreSQL版 数据库优化后的格式进行查询和分析。功能说明 外部数据源管理提供高性能的结构化...

一键实时同步至Hologres

您需要在数据集成同步任务配置前,配置好您需要同步的源端和目标端数据库,以便在同步任务配置过程中,可通过选择数据源名称控制同步任务的读取和写入数据库。同步任务支持的数据源及其配置详情请参见 支持的数据源及同步方案。说明 数据...

MySQL分库分表同步至MaxCompute

您需要将数据库添加至DataWorks上,以便在同步任务配置时,可通过选择数据源名称控制同步读取和写入的数据库。详情请参见 配置MySQL数据源、配置MaxCompute数据源。说明 数据源相关能力介绍详情请参见:数据源概述。已购买合适规格的独享...

MySQL分库分表同步至MaxCompute

您需要将数据库添加至DataWorks上,以便在同步任务配置时,可通过选择数据源名称控制同步读取和写入的数据库。详情请参见 配置MySQL数据源、配置MaxCompute数据源。说明 数据源相关能力介绍详情请参见:数据源概述。已购买合适规格的独享...

MySQL分库分表同步至Hologres(方案1.0)

您需要将数据库添加至DataWorks上,以便在同步任务配置时,可通过选择数据源名称控制同步读取和写入的数据库。本实践中创建的数据源名为 doc_mysql1,详情请参见 配置MySQL数据源、配置Hologres数据源。说明 数据源相关能力介绍详情请...

DLA Lakehouse实时入湖

Spark运行所需私有网络ID DLA Spark利用ENI技术配置该VPC网络访问数据源。关于DLA Spark如何配置数据源VPC网络,请参见 配置数据源网络。Spark运行所需交换机ID DLA Spark运行所需VPC网络下的交换机ID。Spark运行所需安全组 DLA Spark...

跨云账号单向同步云数据库Redis实例

若目标数据库内存不足,触发数据逐出时,由于 云数据库Redis版 的默认数据逐出策略(maxmemory-policy)为 volatile-lru,会导致目标库与数据不一致的情况,但不会影响任务的正常运行。为避免该情况发生,建议将目标库的数据逐出策略...

创建PolarDB-X 2.0数据订阅任务

库对象 从 源库对象 列表中,选择待订阅对象,单击图标,将其移动到 已选择对象 列表中。说明 订阅任务配置完成后,不支持修改订阅对象,如果需要新增订阅的表,需要新建订阅任务。单击 下一步高级配置,进行高级配置。配置 说明 选择...

PolarDB MySQL版同步至RDS MySQL

库触发器迁移方式 请根据实际情况选择同步触发器的方式,若您待同步的对象不涉及触发器,则无需配置。更多信息,请参见 同步或迁移源库中的触发器。说明 仅当 同步类型 选择了 库表结构同步 时才可以配置。同步拓扑 选择 单向同步。目标...

MongoDB(无分片键)同步至MongoDB(分片集群架构)

数据传输服务DTS(Data Transmission Service)支持在端MongoDB的数据中分片键字段缺失的情况下,将数据同步至分片集群架构的MongoDB中,并指定分片键的默认值。本文以 云数据库MongoDB版(副本集架构)为且 云数据库MongoDB版(分片...

MongoDB(无分片键)同步至MongoDB(分片集群架构)

数据传输服务DTS(Data Transmission Service)支持在端MongoDB的数据中分片键字段缺失的情况下,将数据同步至分片集群架构的MongoDB中,并指定分片键的默认值。本文以 云数据库MongoDB版(副本集架构)为且 云数据库MongoDB版(分片...

PolarDB MySQL版同步至AnalyticDB MySQL 3.0

使用数据传输服务DTS(Data Transmission Service),可以帮助您将 PolarDB MySQL版 集群同步至 云原生数据仓库AnalyticDB MySQL版 3.0,帮助您快速构建企业内部BI、交互查询、实时报表等系统。前提条件 已创建 PolarDB MySQL版 集群,...

常见问题

主要用于两个数据源之间的数据实时同步,适用于异地多活、数据灾备、跨境数据同步、查询与报表分流、云BI及实时数据仓库等场景。支持的数据库 请参见 迁移方案概览。请参见 同步方案概览。支持的数据库部署位置(接入方式)阿里云实例 有...

RDS PostgreSQL同步至PolarDB PostgreSQL版

重要 2022年09月09日前创建的数据同步任务,需在配置同步任务前,在库中创建触发器和函数捕获DDL信息,详情请参见 通过触发器和函数实现PostgreSQL的DDL增量迁移。增量数据同步阶段不支持同步bit类型的数据。同步任务支持如下DDL,且...

实时同步常见问题

处理方式如下:正常处理 忽略 报警 出错 此DDL消息将会继续下发给目标数据源,由目标端数据源来处理,不同目标端数据源处理策略可能会不同。丢弃掉此DDL消息,目标端数据源不会做任何处理。丢弃掉此DDL消息,同时发送告警信息。说明 如果...

创建RDS PostgreSQL数据订阅任务

如果源数据库是阿里云数据库实例(例如 RDS MySQL、云数据库MongoDB版 等),DTS会自动将对应地区DTS服务的IP地址添加到阿里云数据库实例的白名单;如果源数据库是ECS上的自建数据库,DTS会自动将对应地区DTS服务的IP地址添到ECS的安全规则...

数据源概述

数据源功能概述 配置数据源时,您需要了解如下内容:能力 说明 数据源支持情况与配置 在配置数据集成同步任务前,您需要提前在DataWorks数据源管理页面配置好需要同步的数据源。数据集成目前支持几十种数据源,目前支持的数据源及其配置...

管理数据源权限

您可以在数据源管理页面,分享数据源权限给相应的工作空间,并进入被分享的工作空间查看该数据源。本文为您介绍如何管理数据源权限及查看分享的数据源。背景信息 通常数据源会承载数据的具体地址、账户和密码等敏感信息,但普通开发人员仅...

场景:跨账号创建数据源

说明 您可根据跨账号添加的数据源在A工作空间的使用场景,提前为RAM角色授权与相关权限,例如,若要在A工作空间查询B工作空间数据源下的表,需确保数据源配置的RAM角色已拥有该表的SELECT权限。账号A:使用账号B的用户信息创建数据源 说明 ...

Oracle数据导入

您需要在数据集成同步任务配置前,配置好您需要同步的源端和目标端数据库,以便在同步任务配置过程中,可通过选择数据源名称控制同步任务的读取和写入数据库。同步任务支持的数据源及其配置详情请参见 支持的数据源及同步方案。说明 数据...

创建MaxCompute数据源

若您要使用DataWorks进行MaxCompute任务的开发、管理,需先将您的MaxCompute项目创建为DataWorks的MaxCompute数据源。创建完成后,可在DataWorks的各功能模块使用该数据源连接MaxCompute项目,进行相应的数据同步、数据开发、数据分析等...

通过DataWorks导入

您需要在数据集成同步任务配置前,配置好您需要同步的源端和目标端数据库,以便在同步任务配置过程中,可通过选择数据源名称控制同步任务的读取和写入数据库。同步任务支持的数据源及其配置详情请参见 支持的数据源及同步方案。说明 数据...

通过DataWorks导入数据

您需要在数据集成同步任务配置前,配置好您需要同步的源端和目标端数据库,以便在同步任务配置过程中,可通过选择数据源名称控制同步任务的读取和写入数据库。同步任务支持的数据源及其配置详情请参见 支持的数据源及同步方案。说明 数据...

编辑数据源

本文为您介绍编辑数据源的方法。数据源添加完成之后,您可以根据大屏展示的需要,编辑数据源的内容。推荐在画布编辑页面编辑数据源。除了可以编辑数据源,还可以在该页面完成 数据映射、添加过滤器 和设定数据 自动更新 时间。操作步骤 ...

元数据采集

DataWorks数据地图为您提供 元数据采集 功能,方便您将不同系统中的元数据进行统一汇总管理,您可以在数据地图查看从各数据源汇集而的元数据信息。本文为您介绍如何创建采集器,将各数据源的元数据信息汇集至DataWorks。前提条件 您需要...

查看数据源校验记录

参数 说明 筛选与搜索 您可以选择 规则异常、执行状态、质量负责人、数据源类型、用途 筛选校验记录,您也可以在搜索框中输入数据源名称的关键字,快速搜索校验记录。数据源名称 质量规则校验的数据源的名称。强/弱规则异常 强规则异常:...

查看数据源校验记录

参数 说明 筛选与搜索 您可以选择 规则异常、执行状态、质量负责人、数据源类型、用途 筛选校验记录,您也可以在搜索框中输入数据源名称的关键字,快速搜索校验记录。数据源名称 质量规则校验的数据源的名称。强/弱规则异常 强规则异常:...

通过DataWorks导入数据

您需要在数据集成同步任务配置前,配置好您需要同步的源端和目标端数据库,以便在同步任务配置过程中,可通过选择数据源名称控制同步任务的读取和写入数据库。同步任务支持的数据源及其配置详情请参见 支持的数据源及同步方案。说明 数据...

添加DataWorks数据服务数据源

本文介绍在DataV中添加DataWorks数据服务数据源,并将通过DataWorks数据表生成的API,快速地展示在DataV可视化大屏中的方法。前提条件 已准备好待添加的DataWorks数据服务数据源。背景信息 DataWorks数据服务生成的API默认不支持HTTPS协议...

设置数据源的账号与密码

单击左侧导航栏中的 数据源,然后在上方选择目标地域。单击目标数据源实例。说明 若您未设置过数据源的账号与密码,目标数据源的右侧会有 设置账号密码 按钮,您可以直接单击该按钮进行设置。在 数据源信息 区域,单击 设置账号密码。在 ...

添加DataWorks数据服务数据源

本文介绍在DataV中添加DataWorks数据服务数据源,并将通过DataWorks数据表生成的API,快速地展示在DataV可视化大屏中的方法。前提条件 已准备好待添加的DataWorks数据服务数据源。背景信息 DataWorks数据服务生成的API默认不支持HTTPS协议...

添加阿里云API网关数据源

本文档介绍在DataV中添加阿里云API网关数据源的方法,以及相关参数配置说明。阿里云API网关即API托管服务,涵盖API发布、管理、运维、售卖的全生命周期管理。前提条件 已准备好待添加的阿里云API网关数据源。添加阿里云API网关数据源操作...

Flink_SQL任务开发方式

Dataphin的Flink_SQL任务支持多种开发方式,包括原生DDL+DML开发、使用Dataphin元表进行开发、使用Dataphin数据源表进行开发、以及使用计算源物理表进行开发,且不同开发方式所创建的表支持任意混用,包括镜像表。不同开发方式的使用方法、...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
云数据库 RDS 云数据库 Redis 版 数据传输服务 数据库备份 DBS 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用