数据传输服务DTS(Data Transmission Service)支持将RDS MySQL迁移至云原生数据仓库AnalyticDB PostgreSQL版

支持的源数据库

MySQL迁移至云原生数据仓库AnalyticDB PostgreSQL版,支持以下类型的MySQL源数据库。
  • RDS MySQL实例
  • MySQL自建数据库:
    • 有公网IP的自建数据库
    • ECS上的自建数据库
    • 通过数据库网关接入的自建数据库
    • 通过云企业网CEN接入的自建数据库
    • 通过专线、VPN网关或智能网关接入的自建数据库
说明 本文以RDS MySQL实例为源数据库介绍配置流程,其他数据源配置流程与本案例类似。

前提条件

  • 已创建源RDS MySQL实例,创建方式,请参见创建RDS MySQL实例
  • 已创建目标AnalyticDB PostgreSQL实例,如未创建请参见创建实例
  • 目标AnalyticDB PostgreSQL实例的存储空间须大于源RDS MySQL实例占用的存储空间。

注意事项

类型 说明
源库限制
  • 待同步的表需具备主键或唯一约束,且字段具有唯一性,否则可能会导致目标数据库中出现重复数据。
  • 如同步对象为表级别,且需进行编辑(如表列名映射),则单次同步任务仅支持同步至多1000张表。当超出数量限制,任务提交后会显示请求报错,此时建议您拆分待同步的表,分批配置多个任务,或者配置整库的同步任务。
  • Binlog日志:
    • 需开启Binlog,开启方法请参见设置实例参数,并且binlog_row_image为full。否则预检查阶段提示报错,且无法成功启动数据同步任务。
      重要
      • 如源实例为自建MySQL,则需开启Binlog,并且binlog_format为row、binlog_row_image为full。
      • 如源实例自建MySQL是双主集群(两者互为主从),为保障DTS能获取全部的Binlog日志,则您需开启参数log_slave_updates。具体操作请参见为自建MySQL创建账号并设置binlog
    • 如为增量同步任务,DTS要求源数据库的本地Binlog日志保存24小时以上,如为全量同步和增量同步任务,DTS要求源数据库的本地Binlog日志至少保留7天以上(您可在全量同步完成后将Binlog保存时间设置为24小时以上),否则DTS可能因无法获取Binlog而导致任务失败,极端情况下甚至可能会导致数据不一致或丢失。由于您所设置的Binlog日志保存时间低于DTS要求的时间进而导致的问题,不在DTS的SLA保障范围内。如源为RDS MySQL,具体操作请参见本地日志(Binlog)

  • 同步期间,请勿执行修改主键和添加注释的DDL操作(如ALTER TABLE table_name COMMENT='表的注释';),否则数据同步过程中会导致执行该DDL失败。
其他限制
  • 同步对象要求:
    • 仅支持表级同步。
    • 不支持BIT、VARBIT、GEOMETRY、ARRAY、UUID、TSQUERY、TSVECTOR、TXID_SNAPSHOT、POINT类型的数据同步。
    • 暂不支持同步前缀索引,如果源库存在前缀索引可能导致数据同步失败。
  • 执行数据同步前需评估源库和目标库的性能,同时建议业务低峰期执行数据同步。否则全量数据初始化时将占用源库和目标库一定的读写资源,可能会导致数据库的负载上升。
  • 全量初始化会并发执行INSERT操作,导致目标数据库的表产生碎片,因此全量初始化完成后目标实例的表空间比源实例的表空间大。
  • 如同步对象为单个或多个表(非整库),那么在数据同步时,勿对源库的同步对象使用gh-ost或pt-online-schema-change等类似工具执行在线DDL变更,否则会导致同步失败。

    您可以使用数据管理DMS(Data Management Service)来执行在线DDL变更,请参见不锁表结构变更

  • 在DTS同步期间,不允许有除DTS外的数据写入目标库,否则会导致源库与目标库数据不一致。例如,有除DTS外的数据写入目标库时,使用DMS执行在线DDL变更,可能引起目标库数据丢失。
特殊情况
当源库为自建MySQL时
  • 在同步时,如果源库进行主备切换,将会导致同步任务失败。
  • 由于DTS的延迟时间是根据同步到目标库最后一条数据的时间戳和当前时间戳对比得出,源库长时间未执行DML操作可能导致延迟信息不准确。如果任务显示的延迟时间过大,您可以在源库执行一个DML操作来更新延迟信息。
    说明 如果同步对象选择为整库,您还可以创建心跳表,心跳表每秒定期更新或者写入数据。
  • DTS会在源库定时执CREATE DATABASE IF NOT EXISTS `test`命令以推进Binlog位点。

费用说明

迁移类型 链路配置费用 公网流量费用
结构迁移和全量数据迁移 不收费。 通过公网将数据迁移出阿里云时将收费,详情请参见计费概述
增量数据迁移 收费,详情请参见计费概述

迁移类型说明

  • 库表结构迁移

    DTS将源库中迁移对象的结构定义迁移到目标库。

    说明 此场景属于异构数据库间的数据迁移,DTS在执行结构迁移时数据类型无法完全对应,请谨慎评估数据类型的映射关系对业务的影响,详情请参见异构数据库间的数据类型映射关系
  • 全量迁移

    DTS将源库中迁移对象的存量数据,全部迁移到目标库中。

  • 增量迁移

    DTS在全量迁移的基础上,将源库的增量更新数据同步到目标库中。通过增量数据迁移可以实现在自建应用不停服的情况下,平滑地完成数据迁移。

支持增量迁移的SQL操作

操作类型 SQL操作语句
DML INSERT、UPDATE、DELETE
DDL CREATE TABLE、DROP TABLE、RENAME TABLE、TRUNCATE TABLE、ADD COLUMN、DROP COLUMN
警告 如果在数据迁移过程中变更了源表的字段类型,迁移任务将报错并中断。您可以参照以下方法手动修复。
  1. 在迁移至目标库AnalyticDB PostgreSQL时,源表(例如customer)因字段类型变更而导致迁移任务失败。
  2. AnalyticDB PostgreSQL中创建一个新表(customer_new),表结构与customer表保持一致。
  3. 通过INSERT INTO SELECT命令,将customer表的数据复制并插入到新创建的customer_new表中,确保两张表的数据保持一致。
  4. 重命名或删除迁移失败的表customer,然后将customer_new表的名称修改为customer。
  5. 在DTS控制台,重新启动数据迁移任务。

数据库账号的权限要求

数据库 库表结构迁移 全量迁移 增量迁移
RDS MySQL SELECT权限 SELECT权限 REPLICATION SLAVE、REPLICATION CLIENT及待迁移对象的SELECT权限,由DTS自动执行授权。
AnalyticDB PostgreSQL 读写权限
数据库账号创建及授权方法:

操作步骤

  1. 进入迁移任务的列表页面。
    1. 登录DMS数据管理服务
    2. 在顶部菜单栏中单击集成与开发(DTS),在左侧导航栏选择数据传输(DTS) > 数据迁移
    说明 您也可以登录新版DTS迁移任务的列表页面
  2. 迁移任务右侧,选择迁移实例所属地域。
    说明 新版DTS迁移任务列表页面,需要在页面左上角选择迁移实例所属地域。
  3. 单击创建任务,配置源库及目标库信息。
    类别 配置 说明
    任务名称

    DTS会自动生成一个任务名称,建议配置具有业务意义的名称(无唯一性要求),便于后续识别。

    源库信息 数据库类型 选择MySQL
    接入方式 选择为云实例
    实例地区 选择源RDS MySQL实例所属地域。
    是否跨阿里云账号 本案例为同一阿里云账号间迁移,选择不跨账号
    RDS实例ID 选择源RDS MySQL实例ID。
    数据库账号 填入源RDS MySQL实例的数据库账号,权限要求,请参见数据库账号的权限要求
    数据库密码

    填入该数据库账号对应的密码。

    连接方式

    根据需求选择非加密连接SSL安全连接。如果设置为SSL安全连接,您需要提前开启RDS MySQL实例的SSL加密功能,详情请参见设置SSL加密

    目标库信息 数据库类型 选择AnalyticDB PostgreSQL
    接入方式 选择云实例
    实例地区 选择目标AnalyticDB PostgreSQL实例所属地域。
    实例ID 选择目标AnalyticDB PostgreSQL实例ID。
    数据库名称 填入目标AnalyticDB PostgreSQL实例中迁移对象所属数据库的名称。
    数据库账号 填入目标AnalyticDB PostgreSQL实例的初始账号。
    说明 您也可以填入具备RDS_SUPERUSER权限的账号,创建方法请参见用户权限管理
    数据库密码

    填入该数据库账号对应的密码。

  4. 配置完成后,单击页面下方的测试连接以进行下一步
    警告
    • 如果源或目标数据库是阿里云数据库实例(例如RDS MySQL云数据库MongoDB版等)或ECS上的自建数据库,DTS会自动将对应地区DTS服务的IP地址添加到阿里云数据库实例的白名单或ECS的安全规则中,您无需手动添加,请参见DTS服务器的IP地址段;如果源或目标数据库是IDC自建数据库或其他云数据库,则需要您手动添加对应地区DTS服务的IP地址,以允许来自DTS服务器的访问。
    • 上述场景中,DTS自动添加或您手动添加DTS服务的公网IP地址段可能会存在安全风险,一旦使用本产品代表您已理解和确认其中可能存在的安全风险,并且需要您做好基本的安全防护,包括但不限于加强账号密码强度防范、限制各网段开放的端口号、内部各API使用鉴权方式通信、定期检查并限制不需要的网段,或者使用通过内网(专线/VPN网关/智能网关)的方式接入。
    • DTS任务完成或释放后,建议您手动检测并删除DTS相关的服务器IP地址段。
  5. 配置任务对象及高级配置。
    • 基础配置
      配置 说明
      任务步骤
      • 如果只需要进行全量迁移,请同时选中库表结构迁移全量迁移
      • 如果需要进行不停机迁移,请同时选中库表结构迁移全量迁移增量迁移
      说明 如果未选择增量迁移,为保障数据一致性,数据迁移期间请勿在源实例中写入新的数据。
      目标已存在表的处理模式
      • 预检查并报错拦截:检查目标数据库中是否有同名的表。如果目标数据库中没有同名的表,则通过该检查项目;如果目标数据库中有同名的表,则在预检查阶段提示错误,数据迁移任务不会被启动。

        说明 如果目标库中同名的表不方便删除或重命名,您可以更改该表在目标库中的名称,请参见库表列名映射
      • 清空目标表数据:在预检查阶段跳过目标表是否为空的检查项目。全量初始化之前将目标表的数据清空。

      • 忽略报错并继续执行:跳过目标数据库中是否有同名表的检查项。
        警告 选择为忽略报错并继续执行,可能导致数据不一致,给业务带来风险,例如:
        • 表结构一致的情况下,在目标库遇到与源库主键的值相同的记录,则会保留目标库中的该条记录,即源库中的该条记录不会迁移至目标库中。
        • 表结构不一致的情况下,可能导致只能迁移部分列的数据或迁移失败。
      实例级别选择所需同步的DDL和DML 按实例级别选择增量迁移的SQL操作,支持的操作,请参见支持增量迁移的SQL操作
      说明 如需按库或表级别选择增量迁移的SQL操作,请在已选择对象中右击同步对象,在弹跳框中勾选所需同步的SQL操作。
      同步对象

      源库对象框中单击待迁移的对象,然后单击向右小箭头将其移动到已选择对象框。

      说明 迁移对象选择的粒度为schema、表、列。若选择的迁移对象为表或列,其他对象(如视图、触发器、存储过程)不会被迁移至目标库。
      映射名称更改
      • 如需更改单个迁移对象在目标实例中的名称,请右击已选择对象中的迁移对象,设置方式,请参见库表列名单个映射
      • 如需批量更改迁移对象在目标实例中的名称,请单击已选择对象方框右上方的批量编辑设置方式,请参见库表列名批量映射
      说明 如果使用了对象名映射功能,可能会导致依赖这个对象的其他对象迁移失败。
      过滤待迁移数据

      支持设置条件过滤数据,详情请参见通过SQL条件过滤任务数据

      增量迁移的SQL操作 选择增量迁移SQL操作,请右击已选择对象中的迁移对象,在弹跳框中选择所需增量迁移的SQL操作。支持的操作,请参见支持增量迁移的SQL操作
    • 高级配置
      配置 说明
      设置告警
      是否设置告警,当迁移失败或延迟超过阈值后,将通知告警联系人。
      • 不设置:不设置告警。
      • 设置:设置告警,您还需要设置告警阈值和告警联系人。
      源表DMS_ONLINE_DDL过程中是否复制临时表到目标库
      如源库使用数据管理DMS(Data Management Service)执行Online DDL变更,您可以选择是否迁移Online DDL变更产生的临时表数据。
      • :迁移Online DDL变更产生的临时表数据。
        说明 Online DDL变更产生的临时表数据过大,可能会导致迁移任务延迟。
      • :不迁移Online DDL变更产生的临时表数据,只迁移源库的原始DDL数据。
        说明 该方案会导致目标库锁表。
      源、目标库无法连接重试时间
      默认重试720分钟,您也可以在取值范围(10~720分钟)内自定义重试时间,建议设置30分钟以上。如果DTS在设置的时间内重新连接上源、目标库,同步任务将自动恢复。否则,同步任务将失败。
      说明
      • 针对同源或者同目标的多个DTS实例,网络重试时间以后创建任务的设置为准。
      • 由于连接重试期间,DTS将收取任务运行费用,建议您根据业务需要自定义重试时间,或者在源和目标库实例释放后尽快释放DTS实例。
      为目标对象添加引号 选择是否需要为目标对象添加引号。
      • 选择:若源库存在以下情况,DTS会在库表结构和增量数据迁移阶段,自动为符合要求的schema、表或列名添加半角单引号(')或半角双引号(")。
        • 源库所属的业务环境对大小写敏感且大小写混用。
        • 源表名不是以字母开头,且包含字母、数字或特殊字符以外的字符。
          说明 特殊字符仅支持下划线(_),井号(#)和美元符号($)。
        • 待迁移的Schema、表或列名称是目标库的关键字、保留字或非法字符。
      • 选择:DTS不会为目标对象添加引号。
      配置ETL功能 选择是否配置ETL功能。若您配置ETL功能选择,需在输入框中按照DSL语法填写数据处理语句,详情请参见在DTS迁移或同步任务中配置ETL
  6. 可选:配置库表字段。设置待迁移的表在目标库AnalyticDB PostgreSQL中的主键列分布键信息,详情请参见CREATE TABLE
    说明 仅配置任务对象时,勾选了库表结构迁移选项才会有该步骤。
  7. 上述配置完成后,单击页面下方的下一步保存任务并预检查
    说明
    • 在迁移任务正式启动之前,会先进行预检查。只有预检查通过后,才能成功启动迁移任务。
    • 如果预检查失败,单击具体检查项后的提示,查看失败详情。
      • 您可以根据提示修复后重新进行预检查。
      • 如无需修复告警检测项,您也可以选择确认屏蔽忽略告警项并重新进行预检查,跳过告警检测项重新进行预检查。
  8. 预检查通过率显示为100%时,单击下一步购买
  9. 购买页面,选择数据迁移实例的链路规格,详细说明请参见下表。
    类别 参数 说明
    信息配置 链路规格

    DTS为您提供了不同性能的迁移规格,迁移链路规格的不同会影响迁移速率,您可以根据业务场景进行选择,详情请参见数据迁移链路规格说明

  10. 配置完成后,阅读并选中《数据传输(按量付费)服务条款》
  11. 单击购买并启动,迁移任务正式开始,您可在数据迁移界面查看具体进度。