同步时源库为PolarDB MySQL版的注意事项及限制

如果同步的源集群为PolarDB MySQL版,您需要在配置具体的同步任务前,参考本文的注意事项及限制,以保障数据同步任务的正常运行。

源实例为PolarDB MySQL版的同步方案概览

根据如下同步方案,查看同步任务的注意事项及限制:

说明

DTS默认同步到目标数据库中时会取消外键约束,因此源数据库的级联、删除等操作不会同步到如下目标数据库:

  • MySQL(RDS MySQL、自建MySQL)

  • PolarDB MySQL版

  • PolarDB-X 1.0

  • 云原生数据仓库 AnalyticDB MySQL 版 2.0

  • 云原生数据仓库 AnalyticDB MySQL 版 3.0

  • 云原生数据仓库AnalyticDB PostgreSQL

  • Elasticsearch

PolarDB MySQL版间的同步

具体注意事项及限制如下:

类型

说明

源库限制

  • 待同步的表需具备主键或唯一约束,且字段具有唯一性,否则可能会导致目标数据库中出现重复数据。

    说明

    若双向同步实例中待同步的表不具备主键和唯一约束,可以开启Exactly-Once写入功能。更多信息,请参见同步无主键和唯一约束的表

  • 如同步对象为表级别,且需进行编辑(如表列名映射),则单次同步任务仅支持同步至多1000张表。当超出数量限制,任务提交后会显示请求报错,此时建议您拆分待同步的表,分批配置多个任务,或者配置整库的同步任务。

  • 如需进行增量同步,需开启Binlog日志,并且需要将loose_polar_log_bin参数设置为on。否则预检查阶段提示报错,且无法成功启动数据同步任务。开启Binlog日志和修改参数的方法,请参见开启Binlog修改参数值

    说明
    • PolarDB MySQL版开启Binlog日志会占用一定的存储空间,需要收取存储费用。

    • 如为增量同步任务,DTS要求源数据库的本地Binlog日志保存24小时以上;如为全量同步和增量同步任务,DTS要求源数据库的本地Binlog日志至少保留7天以上(您可在全量同步完成后将Binlog保存时间设置为24小时以上),否则DTS可能因无法获取Binlog而导致任务失败,极端情况下甚至可能会导致数据不一致或丢失。由于您所设置的Binlog日志保存时间低于DTS要求的时间进而导致的问题,不在DTS的SLA保障范围内。

  • 在库表结构同步和全量同步阶段,请勿执行库或表结构变更的DDL操作,否则会导致数据同步任务失败。

其他限制

  • 不支持同步源PolarDB MySQL版只读节点。

  • 不支持同步源PolarDB MySQL版的OSS外表。

  • 若待同步的数据中包含需要四字节存储的内容(例如生僻字、表情等信息),则目标端接收数据的数据库和表必须使用utf8mb4字符集。

    说明

    若您使用DTS同步库表结构,则需将目标库中实例级别的参数character_set_server设置为utf8mb4。

  • 执行数据同步前需评估源库和目标库的性能,同时建议业务低峰期执行数据同步。否则全量数据初始化时将占用源库和目标库一定的读写资源,可能会导致数据库的负载上升。

  • 全量初始化会并发执行INSERT操作,导致目标数据库的表产生碎片,因此全量初始化完成后目标实例的表空间比源实例的表空间大。

  • 对于表级别的数据同步,请勿对源库的同步对象使用pt-online-schema-change等类似工具执行在线DDL变更,否则会导致同步失败。

  • 对于表级别的数据同步,如果除DTS以外的数据没有写入目标库,您可以使用数据管理DMS(Data Management)来执行在线DDL变更,请参见不锁表结构变更

  • 在DTS同步期间,不允许有除DTS外的数据写入目标库,否则会导致源库与目标库数据不一致。例如,有除DTS外的数据写入目标库时,使用DMS执行在线DDL变更,可能引起目标库数据丢失。

  • 若目标库的DDL写入失败,DTS任务会继续运行,您需要在任务日志中查看执行失败的DDL。查看任务日志的方法,请参见查询任务日志

  • 若您需要同步源库中的账号,则还需满足相应的前提条件,并了解相关注意事项。更多信息,请参见迁移数据库账号

  • 若实例运行失败,DTS技术支持人员将在8小时内尝试恢复该实例。在恢复失败实例的过程中,可能会对该实例进行重启、调整参数等操作。

    说明

    在调整参数时,仅会修改实例的参数,不会对数据库中的参数进行修改。可能修改的参数,包括但不限于修改实例参数中的参数。

其他注意事项

PolarDB MySQL版间的双向同步

  • 目前DTS仅支持两个PolarDB MySQL版之间的双向同步,暂不支持多个PolarDB MySQL版间的双向同步。

  • DDL语法同步方向限制 。为保障双向同步链路的稳定性和数据一致性,只支持正向同步DDL,不支持反向同步DDL。

  • 双向同步任务时,DTS会在目标库中建立数据库dts,以避免数据循环同步,任务运行期间,请勿修改该库。

  • 双向同步实例包含正向和反向同步任务,在配置或重置双向同步实例时,若其中一个任务的目标对象是另一个任务待同步的对象:

    • 仅允许其中一个任务同步全量和增量数据,另一个任务仅支持同步增量数据。

    • 当前任务的源数据仅支持同步到当前任务的目标端,同步过来的数据不会作为另一个任务的源数据继续同步。

  • DTS会在源库定时执行CREATE DATABASE IF NOT EXISTS `test`命令以推进Binlog位点。

PolarDB MySQL版同步至RDS MySQL、自建MySQL

具体注意事项及限制如下:

类型

说明

源库限制

  • 待同步的表需具备主键或唯一约束,且字段具有唯一性,否则可能会导致目标数据库中出现重复数据。

    说明

    若双向同步实例中待同步的表不具备主键和唯一约束,可以开启Exactly-Once写入功能。更多信息,请参见同步无主键和唯一约束的表

  • 如同步对象为表级别,且需进行编辑(如表列名映射),则单次同步任务仅支持同步至多1000张表。当超出数量限制,任务提交后会显示请求报错,此时建议您拆分待同步的表,分批配置多个任务,或者配置整库的同步任务。

  • 如需进行增量同步,需开启Binlog日志,并且需要将loose_polar_log_bin参数设置为on。否则预检查阶段提示报错,且无法成功启动数据同步任务。开启Binlog日志和修改参数的方法,请参见开启Binlog修改参数值

    说明
    • PolarDB MySQL版开启Binlog日志会占用一定的存储空间,需要收取存储费用。

    • 如为增量同步任务,DTS要求源数据库的本地Binlog日志保存24小时以上;如为全量同步和增量同步任务,DTS要求源数据库的本地Binlog日志至少保留7天以上(您可在全量同步完成后将Binlog保存时间设置为24小时以上),否则DTS可能因无法获取Binlog而导致任务失败,极端情况下甚至可能会导致数据不一致或丢失。由于您所设置的Binlog日志保存时间低于DTS要求的时间进而导致的问题,不在DTS的SLA保障范围内。

  • 在库表结构同步和全量同步阶段,请勿执行库或表结构变更的DDL操作,否则会导致数据同步任务失败。

其他限制

  • 不支持同步源PolarDB MySQL版只读节点。

  • 不支持同步源PolarDB MySQL版的OSS外表。

  • 若待同步的数据中包含需要四字节存储的内容(例如生僻字、表情等信息),则目标端接收数据的数据库和表必须使用utf8mb4字符集。

    说明

    若您使用DTS同步库表结构,则需将目标库中实例级别的参数character_set_server设置为utf8mb4。

  • 执行数据同步前需评估源库和目标库的性能,同时建议业务低峰期执行数据同步。否则全量数据初始化时将占用源库和目标库一定的读写资源,可能会导致数据库的负载上升。

  • 全量初始化会并发执行INSERT操作,导致目标数据库的表产生碎片,因此全量初始化完成后目标实例的表空间比源实例的表空间大。

  • 对于表级别的数据同步,请勿对源库的同步对象使用pt-online-schema-change等类似工具执行在线DDL变更,否则会导致同步失败。

  • 对于表级别的数据同步,如果除DTS以外的数据没有写入目标库,您可以使用数据管理DMS(Data Management)来执行在线DDL变更,请参见不锁表结构变更

  • 在DTS同步期间,不允许有除DTS外的数据写入目标库,否则会导致源库与目标库数据不一致。例如,有除DTS外的数据写入目标库时,使用DMS执行在线DDL变更,可能引起目标库数据丢失。

  • 若目标库的DDL写入失败,DTS任务会继续运行,您需要在任务日志中查看执行失败的DDL。查看任务日志的方法,请参见查询任务日志

  • 若您将列名仅大小写不同的字段写入到目标MySQL数据库的同一个表中,可能会因为MySQL数据库列名大小写不敏感,导致同步结果不符合预期。

  • 在数据同步完成后,建议使用analyze table <表名>命令以确认数据均已写入目标表。例如,在MySQL触发HA切换机制后,可能会导致数据只写到了内存,从而造成数据丢失。

  • 双向同步实例包含正向和反向同步任务,在配置或重置双向同步实例时,若其中一个任务的目标对象是另一个任务待同步的对象:

    • 仅允许其中一个任务同步全量和增量数据,另一个任务仅支持同步增量数据。

    • 当前任务的源数据仅支持同步到当前任务的目标端,同步过来的数据不会作为另一个任务的源数据继续同步。

  • 若实例运行失败,DTS技术支持人员将在8小时内尝试恢复该实例。在恢复失败实例的过程中,可能会对该实例进行重启、调整参数等操作。

    说明

    在调整参数时,仅会修改实例的参数,不会对数据库中的参数进行修改。可能修改的参数,包括但不限于修改实例参数中的参数。

其他注意事项

DTS会在源库定时执行CREATE DATABASE IF NOT EXISTS `test`命令以推进Binlog位点。

PolarDB MySQL版同步至PolarDB-X 1.0

具体注意事项及限制如下:

类型

说明

源库限制

  • 待同步的表需具备主键或唯一约束,且字段具有唯一性,否则可能会导致目标数据库中出现重复数据。

  • 如同步对象为表级别,且需进行编辑(如表列名映射),则单次同步任务仅支持同步至多1000张表。当超出数量限制,任务提交后会显示请求报错,此时建议您拆分待同步的表,分批配置多个任务,或者配置整库的同步任务。

  • 如需进行增量同步,需开启Binlog日志,并且需要将loose_polar_log_bin参数设置为on。否则预检查阶段提示报错,且无法成功启动数据同步任务。开启Binlog日志和修改参数的方法,请参见开启Binlog修改参数值

    说明
    • PolarDB MySQL版开启Binlog日志会占用一定的存储空间,需要收取存储费用。

    • 如为增量同步任务,DTS要求源数据库的本地Binlog日志保存24小时以上;如为全量同步和增量同步任务,DTS要求源数据库的本地Binlog日志至少保留7天以上(您可在全量同步完成后将Binlog保存时间设置为24小时以上),否则DTS可能因无法获取Binlog而导致任务失败,极端情况下甚至可能会导致数据不一致或丢失。由于您所设置的Binlog日志保存时间低于DTS要求的时间进而导致的问题,不在DTS的SLA保障范围内。

  • 在全量同步阶段,请勿执行库或表结构变更的DDL操作,否则会导致数据同步任务失败。

其他限制

  • 同步对象要求:

    • 不支持BIT、VARBIT、GEOMETRY、ARRAY、UUID、TSQUERY、TSVECTOR、TXID_SNAPSHOT类型的数据同步。

    • 暂不支持同步前缀索引,如果源库存在前缀索引可能导致数据同步失败。

    • 不支持同步源PolarDB MySQL版只读节点。

    • 不支持同步源PolarDB MySQL版的OSS外表。

  • 暂不支持结构初始化,在配置同步任务前,您需要在目标实例中创建对应的库和表。

  • 执行数据同步前需评估源库和目标库的性能,同时建议业务低峰期执行数据同步。否则全量数据初始化时将占用源库和目标库一定的读写资源,可能会导致数据库的负载上升。

  • 全量初始化会并发执行INSERT操作,导致目标数据库的表产生碎片,因此全量初始化完成后目标实例的表空间比源实例的表空间大。

  • 对于表级别的数据同步,请勿对源库的同步对象使用pt-online-schema-change等类似工具执行在线DDL变更,否则会导致同步失败。

  • 对于表级别的数据同步,如果除DTS以外的数据没有写入目标库,您可以使用数据管理DMS(Data Management)来执行在线DDL变更,请参见不锁表结构变更

  • 在DTS同步期间,不允许有除DTS外的数据写入目标库,否则会导致源库与目标库数据不一致。例如,有除DTS外的数据写入目标库时,使用DMS执行在线DDL变更,可能引起目标库数据丢失。

  • 若实例运行失败,DTS技术支持人员将在8小时内尝试恢复该实例。在恢复失败实例的过程中,可能会对该实例进行重启、调整参数等操作。

    说明

    在调整参数时,仅会修改实例的参数,不会对数据库中的参数进行修改。可能修改的参数,包括但不限于修改实例参数中的参数。

其他注意事项

DTS会在源库定时执行CREATE DATABASE IF NOT EXISTS `test`命令以推进Binlog位点。

PolarDB MySQL版同步至云原生数据仓库 AnalyticDB MySQL 版 2.0

具体注意事项及限制如下:

类型

说明

源库限制

  • 待同步的表需具备主键或唯一约束,且字段具有唯一性,否则可能会导致目标数据库中出现重复数据。

  • 如同步对象为表级别,且需进行编辑(如表列名映射),则单次同步任务仅支持同步至多1000张表。当超出数量限制,任务提交后会显示请求报错,此时建议您拆分待同步的表,分批配置多个任务,或者配置整库的同步任务。

  • 如需进行增量同步,需开启Binlog日志,并且需要将loose_polar_log_bin参数设置为on。否则预检查阶段提示报错,且无法成功启动数据同步任务。开启Binlog日志和修改参数的方法,请参见开启Binlog修改参数值

    说明
    • PolarDB MySQL版开启Binlog日志会占用一定的存储空间,需要收取存储费用。

    • 如为增量同步任务,DTS要求源数据库的本地Binlog日志保存24小时以上;如为全量同步和增量同步任务,DTS要求源数据库的本地Binlog日志至少保留7天以上(您可在全量同步完成后将Binlog保存时间设置为24小时以上),否则DTS可能因无法获取Binlog而导致任务失败,极端情况下甚至可能会导致数据不一致或丢失。由于您所设置的Binlog日志保存时间低于DTS要求的时间进而导致的问题,不在DTS的SLA保障范围内。

  • 同步期间,请勿执行修改主键和添加注释的DDL操作(如ALTER TABLE table_name COMMENT='表的注释';),否则数据同步过程中会导致执行该DDL失败。

  • 在库表结构同步和全量同步阶段,请勿执行库或表结构变更的DDL操作,否则会导致数据同步任务失败。

其他限制

  • 暂不支持同步前缀索引,如果源库存在前缀索引可能导致数据同步失败。

  • 不支持同步源PolarDB MySQL版只读节点。

  • 不支持同步源PolarDB MySQL版的OSS外表。

  • 如果同步的目标为云原生数据仓库AnalyticDB MySQL(2.0),那么源实例待同步的对象不能包含云原生数据仓库AnalyticDB MySQL(2.0)保留的库名和列名,否则将造成数据同步失败或DDL操作同步失败。

  • 执行数据同步前需评估源库和目标库的性能,同时建议业务低峰期执行数据同步。否则全量数据初始化时将占用源库和目标库一定的读写资源,可能会导致数据库的负载上升。

  • 全量初始化会并发执行INSERT操作,导致目标数据库的表产生碎片,因此全量初始化完成后目标实例的表空间比源实例的表空间大。

  • 对于表级别的数据同步,请勿对源库的同步对象使用pt-online-schema-change等类似工具执行在线DDL变更,否则会导致同步失败。

  • 对于表级别的数据同步,如果除DTS以外的数据没有写入目标库,您可以使用数据管理DMS(Data Management)来执行在线DDL变更,请参见不锁表结构变更

  • 在DTS同步期间,不允许有除DTS外的数据写入目标库,否则会导致源库与目标库数据不一致。例如,有除DTS外的数据写入目标库时,使用DMS执行在线DDL变更,可能引起目标库数据丢失。

  • 若目标库的DDL写入失败,DTS任务会继续运行,您需要在任务日志中查看执行失败的DDL。查看任务日志的方法,请参见查询任务日志

  • 若实例运行失败,DTS技术支持人员将在8小时内尝试恢复该实例。在恢复失败实例的过程中,可能会对该实例进行重启、调整参数等操作。

    说明

    在调整参数时,仅会修改实例的参数,不会对数据库中的参数进行修改。可能修改的参数,包括但不限于修改实例参数中的参数。

其他注意事项

DTS会在源库定时执行CREATE DATABASE IF NOT EXISTS `test`命令以推进Binlog位点。

PolarDB MySQL版同步至云原生数据仓库 AnalyticDB MySQL 版 3.0

具体注意事项及限制如下:

类型

说明

源库限制

  • 待同步的表需具备主键或唯一约束,且字段具有唯一性,否则可能会导致目标数据库中出现重复数据。

  • 如同步对象为表级别,且需进行编辑(如表列名映射),则单次同步任务仅支持同步至多1000张表。当超出数量限制,任务提交后会显示请求报错,此时建议您拆分待同步的表,分批配置多个任务,或者配置整库的同步任务。

  • 如需进行增量同步,需开启Binlog日志,并且需要将loose_polar_log_bin参数设置为on。否则预检查阶段提示报错,且无法成功启动数据同步任务。开启Binlog日志和修改参数的方法,请参见开启Binlog修改参数值

    说明
    • PolarDB MySQL版开启Binlog日志会占用一定的存储空间,需要收取存储费用。

    • 如为增量同步任务,DTS要求源数据库的本地Binlog日志保存24小时以上;如为全量同步和增量同步任务,DTS要求源数据库的本地Binlog日志至少保留7天以上(您可在全量同步完成后将Binlog保存时间设置为24小时以上),否则DTS可能因无法获取Binlog而导致任务失败,极端情况下甚至可能会导致数据不一致或丢失。由于您所设置的Binlog日志保存时间低于DTS要求的时间进而导致的问题,不在DTS的SLA保障范围内。

  • 同步期间,请勿执行修改主键和添加注释的DDL操作(如ALTER TABLE table_name COMMENT='表的注释';),否则数据同步过程中会导致执行该DDL失败。

  • 在库表结构同步和全量同步阶段,请勿执行库或表结构变更的DDL操作,否则会导致数据同步任务失败。

其他限制

  • 暂不支持同步前缀索引,如果源库存在前缀索引可能导致数据同步失败。

  • 不支持同步源PolarDB MySQL版只读节点。

  • 不支持同步源PolarDB MySQL版的OSS外表。

  • 由于云原生数据仓库AnalyticDB MySQL(3.0)本身的使用限制,当云原生数据仓库AnalyticDB MySQL(3.0)集群中的节点磁盘空间使用量超过80%,会导致DTS任务异常,产生延迟。请提前根据待同步的对象预估所需空间,确保目标集群具备充足的存储空间。

  • 若DTS任务运行时目标AnalyticDB MySQL版 3.0集群处于备份中的状态,则会导致任务失败。

  • 执行数据同步前需评估源库和目标库的性能,同时建议业务低峰期执行数据同步。否则全量数据初始化时将占用源库和目标库一定的读写资源,可能会导致数据库的负载上升。

  • 全量初始化会并发执行INSERT操作,导致目标数据库的表产生碎片,因此全量初始化完成后目标实例的表空间比源实例的表空间大。

  • 对于表级别的数据同步,请勿对源库的同步对象使用pt-online-schema-change等类似工具执行在线DDL变更,否则会导致同步失败。

  • 对于表级别的数据同步,如果除DTS以外的数据没有写入目标库,您可以使用数据管理DMS(Data Management)来执行在线DDL变更,请参见不锁表结构变更

  • 在DTS同步期间,不允许有除DTS外的数据写入目标库,否则会导致源库与目标库数据不一致。例如,有除DTS外的数据写入目标库时,使用DMS执行在线DDL变更,可能引起目标库数据丢失。

  • 若目标库的DDL写入失败,DTS任务会继续运行,您需要在任务日志中查看执行失败的DDL。查看任务日志的方法,请参见查询任务日志

  • 若实例运行失败,DTS技术支持人员将在8小时内尝试恢复该实例。在恢复失败实例的过程中,可能会对该实例进行重启、调整参数等操作。

    说明

    在调整参数时,仅会修改实例的参数,不会对数据库中的参数进行修改。可能修改的参数,包括但不限于修改实例参数中的参数。

其他注意事项

DTS会在源库定时执行CREATE DATABASE IF NOT EXISTS `test`命令以推进Binlog位点。

PolarDB MySQL版同步至云原生数据仓库AnalyticDB PostgreSQL

具体注意事项及限制如下:

类型

说明

源库限制

  • 待同步的表需具备主键或唯一约束,且字段具有唯一性,否则可能会导致目标数据库中出现重复数据。

  • 如同步对象为表级别,且需进行编辑(如表列名映射),则单次同步任务仅支持同步至多1000张表。当超出数量限制,任务提交后会显示请求报错,此时建议您拆分待同步的表,分批配置多个任务,或者配置整库的同步任务。

  • 如需进行增量同步,需开启Binlog日志,并且需要将loose_polar_log_bin参数设置为on。否则预检查阶段提示报错,且无法成功启动数据同步任务。开启Binlog日志和修改参数的方法,请参见开启Binlog修改参数值

    说明
    • PolarDB MySQL版开启Binlog日志会占用一定的存储空间,需要收取存储费用。

    • 如为增量同步任务,DTS要求源数据库的本地Binlog日志保存24小时以上;如为全量同步和增量同步任务,DTS要求源数据库的本地Binlog日志至少保留7天以上(您可在全量同步完成后将Binlog保存时间设置为24小时以上),否则DTS可能因无法获取Binlog而导致任务失败,极端情况下甚至可能会导致数据不一致或丢失。由于您所设置的Binlog日志保存时间低于DTS要求的时间进而导致的问题,不在DTS的SLA保障范围内。

  • 同步期间,请勿执行修改主键和添加注释的DDL操作(如ALTER TABLE table_name COMMENT='表的注释';),否则数据同步过程中会导致执行该DDL失败。

  • 若源库待同步的数据中存在日期类型的数据0000-00-00 00:00:00,则可能会导致任务失败。

    说明

    DTS将该日期数据同步到目标库时会转换为null。您可以临时将源库数据修改为0001-01-01 00:00:00,或者将目标库对应字段设置为可空。

  • 在库表结构同步和全量同步阶段,请勿执行库或表结构变更的DDL操作,否则会导致数据同步任务失败。

其他限制

  • 同步对象要求:

    • 仅支持表级同步。

    • 不支持BIT、VARBIT、GEOMETRY、ARRAY、UUID、TSQUERY、TSVECTOR、TXID_SNAPSHOT类型的数据同步。

    • 暂不支持同步前缀索引,如果源库存在前缀索引可能导致数据同步失败。

    • 不支持同步源PolarDB MySQL版只读节点。

    • 不支持同步源PolarDB MySQL版的OSS外表。

  • 执行数据同步前需评估源库和目标库的性能,同时建议业务低峰期执行数据同步。否则全量数据初始化时将占用源库和目标库一定的读写资源,可能会导致数据库的负载上升。

  • 全量初始化会并发执行INSERT操作,导致目标数据库的表产生碎片,因此全量初始化完成后目标实例的表空间比源实例的表空间大。

  • 对于表级别的数据同步,请勿对源库的同步对象使用pt-online-schema-change等类似工具执行在线DDL变更,否则会导致同步失败。

  • 对于表级别的数据同步,如果除DTS以外的数据没有写入目标库,您可以使用数据管理DMS(Data Management)来执行在线DDL变更,请参见不锁表结构变更

  • 在DTS同步期间,不允许有除DTS外的数据写入目标库,否则会导致源库与目标库数据不一致。例如,有除DTS外的数据写入目标库时,使用DMS执行在线DDL变更,可能引起目标库数据丢失。

  • 目标表暂不支持AO表。

  • 若使用列映射时为非全表同步或者源与目标表结构不一致,则目标端比源端缺少的列的数据将会丢失。

  • 若实例运行失败,DTS技术支持人员将在8小时内尝试恢复该实例。在恢复失败实例的过程中,可能会对该实例进行重启、调整参数等操作。

    说明

    在调整参数时,仅会修改实例的参数,不会对数据库中的参数进行修改。可能修改的参数,包括但不限于修改实例参数中的参数。

其他注意事项

DTS会在源库定时执行CREATE DATABASE IF NOT EXISTS `test`命令以推进Binlog位点。

PolarDB MySQL版同步至阿里云流式数据服务DataHub

具体注意事项及限制如下:

类型

说明

源库限制

  • 待同步的表需具备主键或唯一约束,且字段具有唯一性,否则可能会导致目标数据库中出现重复数据。

  • 如同步对象为表级别,且需进行编辑(如表列名映射),则单次同步任务仅支持同步至多1000张表。当超出数量限制,任务提交后会显示请求报错,此时建议您拆分待同步的表,分批配置多个任务,或者配置整库的同步任务。

  • 如需进行增量同步,需开启Binlog日志,并且需要将loose_polar_log_bin参数设置为on。否则预检查阶段提示报错,且无法成功启动数据同步任务。开启Binlog日志和修改参数的方法,请参见开启Binlog修改参数值

    说明
    • PolarDB MySQL版开启Binlog日志会占用一定的存储空间,需要收取存储费用。

    • 如为增量同步任务,DTS要求源数据库的本地Binlog日志保存24小时以上;如为全量同步和增量同步任务,DTS要求源数据库的本地Binlog日志至少保留7天以上(您可在全量同步完成后将Binlog保存时间设置为24小时以上),否则DTS可能因无法获取Binlog而导致任务失败,极端情况下甚至可能会导致数据不一致或丢失。由于您所设置的Binlog日志保存时间低于DTS要求的时间进而导致的问题,不在DTS的SLA保障范围内。

  • 在库表结构同步和全量同步阶段,请勿执行库或表结构变更的DDL操作,否则会导致数据同步任务失败。

其他限制

  • 目标DataHub中单个String字段的长度最大支持2 MB。

  • 支持库级和表级的数据同步。

  • 不支持同步源PolarDB MySQL版只读节点。

  • 不支持同步源PolarDB MySQL版的OSS外表。

  • 对于表级别的数据同步,请勿对源库的同步对象使用pt-online-schema-change等类似工具执行在线DDL变更,否则会导致同步失败。

  • 对于表级别的数据同步,如果除DTS以外的数据没有写入目标库,您可以使用数据管理DMS(Data Management)来执行在线DDL变更,请参见不锁表结构变更

  • 在DTS同步期间,不允许有除DTS外的数据写入目标库,否则会导致源库与目标库数据不一致。例如,有除DTS外的数据写入目标库时,使用DMS执行在线DDL变更,可能引起目标库数据丢失。

  • 若实例运行失败,DTS技术支持人员将在8小时内尝试恢复该实例。在恢复失败实例的过程中,可能会对该实例进行重启、调整参数等操作。

    说明

    在调整参数时,仅会修改实例的参数,不会对数据库中的参数进行修改。可能修改的参数,包括但不限于修改实例参数中的参数。

其他注意事项

DTS会在源库定时执行CREATE DATABASE IF NOT EXISTS `test`命令以推进Binlog位点。

PolarDB MySQL版同步至Elasticsearch

具体注意事项及限制如下:

类型

说明

源库限制

  • 待同步的表需具备主键或唯一约束,且字段具有唯一性,否则可能会导致目标数据库中出现重复数据。

  • 如同步对象为表级别,且需进行编辑(如表列名映射),则单次同步任务仅支持同步至多1000张表。当超出数量限制,任务提交后会显示请求报错,此时建议您拆分待同步的表,分批配置多个任务,或者配置整库的同步任务。

  • 如需进行增量同步,需开启Binlog日志,并且需要将loose_polar_log_bin参数设置为on。否则预检查阶段提示报错,且无法成功启动数据同步任务。开启Binlog日志和修改参数的方法,请参见开启Binlog修改参数值

    说明
    • PolarDB MySQL版开启Binlog日志会占用一定的存储空间,需要收取存储费用。

    • 如为增量同步任务,DTS要求源数据库的本地Binlog日志保存24小时以上;如为全量同步和增量同步任务,DTS要求源数据库的本地Binlog日志至少保留7天以上(您可在全量同步完成后将Binlog保存时间设置为24小时以上),否则DTS可能因无法获取Binlog而导致任务失败,极端情况下甚至可能会导致数据不一致或丢失。由于您所设置的Binlog日志保存时间低于DTS要求的时间进而导致的问题,不在DTS的SLA保障范围内。

  • 在库表结构同步和全量同步阶段,请勿执行库或表结构变更的DDL操作,否则会导致数据同步任务失败。

其他限制

  • 不支持同步源PolarDB MySQL版只读节点。

  • 不支持同步源PolarDB MySQL版的OSS外表。

  • 如果源库中待同步的表需要执行增加列的操作,您需要先在Elasticsearch实例中修改对应表的Mapping,然后在源数据库中执行相应的DDL操作,最后暂停并启动同步任务。

  • 由于PolarDB MySQL版Elasticsearch实例支持的数据类型不同,数据类型无法一一对应。所以DTS在进行结构初始化时,会根据目标库支持的数据类型进行类型映射,详情请参见结构初始化涉及的数据类型映射关系

  • 执行数据同步前需评估源库和目标库的性能,同时建议业务低峰期执行数据同步。否则全量数据初始化时将占用源库和目标库一定的读写资源,可能会导致数据库的负载上升。

  • 全量初始化会并发执行INSERT操作,导致目标数据库的表产生碎片,因此全量初始化完成后目标实例的表空间比源实例的表空间大。

  • 对于表级别的数据同步,请勿对源库的同步对象使用pt-online-schema-change等类似工具执行在线DDL变更,否则会导致同步失败。

  • 对于表级别的数据同步,如果除DTS以外的数据没有写入目标库,您可以使用数据管理DMS(Data Management)来执行在线DDL变更,请参见不锁表结构变更

  • 在DTS同步期间,若有除DTS外的数据写入目标库,则可能会导致源库与目标库的数据不一致。

  • 不支持开发测试型规格的Elasticsearch实例。

  • 若实例运行失败,DTS技术支持人员将在8小时内尝试恢复该实例。在恢复失败实例的过程中,可能会对该实例进行重启、调整参数等操作。

    说明

    在调整参数时,仅会修改实例的参数,不会对数据库中的参数进行修改。可能修改的参数,包括但不限于修改实例参数中的参数。

其他注意事项

DTS会在源库定时执CREATE DATABASE IF NOT EXISTS `test`命令以推进Binlog位点。

PolarDB MySQL版同步至阿里云消息队列Kafka、自建Kafka

具体注意事项及限制如下:

类型

说明

源库限制

  • 待同步的表需具备主键或唯一约束,且字段具有唯一性,否则可能会导致目标数据库中出现重复数据。

  • 如同步对象为表级别,且需进行编辑(如表列名映射),则单次同步任务仅支持同步至多1000张表。当超出数量限制,任务提交后会显示请求报错,此时建议您拆分待同步的表,分批配置多个任务,或者配置整库的同步任务。

  • 如需进行增量同步,需开启Binlog日志,并且需要将loose_polar_log_bin参数设置为on。否则预检查阶段提示报错,且无法成功启动数据同步任务。开启Binlog日志和修改参数的方法,请参见开启Binlog修改参数值

    说明
    • PolarDB MySQL版开启Binlog日志会占用一定的存储空间,需要收取存储费用。

    • 如为增量同步任务,DTS要求源数据库的本地Binlog日志保存24小时以上;如为全量同步和增量同步任务,DTS要求源数据库的本地Binlog日志至少保留7天以上(您可在全量同步完成后将Binlog保存时间设置为24小时以上),否则DTS可能因无法获取Binlog而导致任务失败,极端情况下甚至可能会导致数据不一致或丢失。由于您所设置的Binlog日志保存时间低于DTS要求的时间进而导致的问题,不在DTS的SLA保障范围内。

  • 在库表结构同步和全量同步阶段,请勿执行库或表结构变更的DDL操作,否则会导致数据同步任务失败。

其他限制

  • 不支持同步源PolarDB MySQL版只读节点。

  • 不支持同步源PolarDB MySQL版的OSS外表。

  • 执行数据同步前需评估源库和目标库的性能,同时建议业务低峰期执行数据同步。否则全量数据初始化时将占用源库和目标库一定的读写资源,可能会导致数据库的负载上升。

  • 全量初始化会并发执行INSERT操作,导致目标数据库的表产生碎片,因此全量初始化完成后目标实例的表空间比源实例的表空间大。

  • 对于表级别的数据同步,请勿对源库的同步对象使用pt-online-schema-change等类似工具执行在线DDL变更,否则会导致同步失败。

  • 对于表级别的数据同步,如果除DTS以外的数据没有写入目标库,您可以使用数据管理DMS(Data Management)来执行在线DDL变更,请参见不锁表结构变更

  • 在DTS同步期间,不允许有除DTS外的数据写入目标库,否则会导致源库与目标库数据不一致。例如,有除DTS外的数据写入目标库时,使用DMS执行在线DDL变更,可能引起目标库数据丢失。

  • 在同步期间,若目标Kafka发生了扩容或缩容,您需要重启实例。

  • 若实例运行失败,DTS技术支持人员将在8小时内尝试恢复该实例。在恢复失败实例的过程中,可能会对该实例进行重启、调整参数等操作。

    说明

    在调整参数时,仅会修改实例的参数,不会对数据库中的参数进行修改。可能修改的参数,包括但不限于修改实例参数中的参数。

其他注意事项

DTS会在源库定时执行CREATE DATABASE IF NOT EXISTS `test`命令以推进Binlog位点。

PolarDB MySQL版同步至MaxCompute

具体注意事项及限制如下:

类型

说明

源库限制

  • 待同步的表需具备主键或唯一约束,且字段具有唯一性,否则可能会导致目标数据库中出现重复数据。

  • 如同步对象为表级别,且需进行编辑(如表列名映射),则单次同步任务仅支持同步至多1000张表。当超出数量限制,任务提交后会显示请求报错,此时建议您拆分待同步的表,分批配置多个任务,或者配置整库的同步任务。

  • 如需进行增量同步,需开启Binlog日志,并且需要将loose_polar_log_bin参数设置为on。否则预检查阶段提示报错,且无法成功启动数据同步任务。开启Binlog日志和修改参数的方法,请参见开启Binlog修改参数值

    说明
    • PolarDB MySQL版开启Binlog日志会占用一定的存储空间,需要收取存储费用。

    • 如为增量同步任务,DTS要求源数据库的本地Binlog日志保存24小时以上;如为全量同步和增量同步任务,DTS要求源数据库的本地Binlog日志至少保留7天以上(您可在全量同步完成后将Binlog保存时间设置为24小时以上),否则DTS可能因无法获取Binlog而导致任务失败,极端情况下甚至可能会导致数据不一致或丢失。由于您所设置的Binlog日志保存时间低于DTS要求的时间进而导致的问题,不在DTS的SLA保障范围内。

  • 在库表结构同步和全量同步阶段,请勿执行库或表结构变更的DDL操作,否则会导致数据同步任务失败。

其他限制

  • 不支持同步源PolarDB MySQL版只读节点。

  • 不支持同步源PolarDB MySQL版的OSS外表。

  • 执行数据同步前需评估源库和目标库的性能,同时建议业务低峰期执行数据同步。否则全量数据初始化时将占用源库和目标库一定的读写资源,可能会导致数据库的负载上升。

  • 全量初始化会并发执行INSERT操作,导致目标数据库的表产生碎片,因此全量初始化完成后目标实例的表空间比源实例的表空间大。

  • 对于表级别的数据同步,请勿对源库的同步对象使用pt-online-schema-change等类似工具执行在线DDL变更,否则会导致同步失败。

  • 对于表级别的数据同步,如果除DTS以外的数据没有写入目标库,您可以使用数据管理DMS(Data Management)来执行在线DDL变更,请参见不锁表结构变更

  • 在DTS同步期间,不允许有除DTS外的数据写入目标库,否则会导致源库与目标库数据不一致。例如,有除DTS外的数据写入目标库时,使用DMS执行在线DDL变更,可能引起目标库数据丢失。

  • 由于MaxCompute不支持主键约束,当DTS在同步数据时因网络等原因触发重传,可能会导致MaxCompute中出现重复记录。

  • 若实例运行失败,DTS技术支持人员将在8小时内尝试恢复该实例。在恢复失败实例的过程中,可能会对该实例进行重启、调整参数等操作。

    说明

    在调整参数时,仅会修改实例的参数,不会对数据库中的参数进行修改。可能修改的参数,包括但不限于修改实例参数中的参数。

其他注意事项

DTS会在源库定时执行CREATE DATABASE IF NOT EXISTS `test`命令以推进Binlog位点。

PolarDB MySQL版同步至自建Oracle

具体注意事项及限制如下:

类型

说明

源库限制

  • 待同步的表需具备主键或唯一约束,且字段具有唯一性,否则可能会导致目标数据库中出现重复数据。

  • 如同步对象为表级别,且需进行编辑(如表列名映射),则单次同步任务仅支持同步至多1000张表。当超出数量限制,任务提交后会显示请求报错,此时建议您拆分待同步的表,分批配置多个任务,或者配置整库的同步任务。

  • 如需进行增量同步,需开启Binlog日志,并且需要将loose_polar_log_bin参数设置为on。否则预检查阶段提示报错,且无法成功启动数据同步任务。开启Binlog日志和修改参数的方法,请参见开启Binlog修改参数值

    说明
    • PolarDB MySQL版开启Binlog日志会占用一定的存储空间,需要收取存储费用。

    • 如为增量同步任务,DTS要求源数据库的本地Binlog日志保存24小时以上;如为全量同步和增量同步任务,DTS要求源数据库的本地Binlog日志至少保留7天以上(您可在全量同步完成后将Binlog保存时间设置为24小时以上),否则DTS可能因无法获取Binlog而导致任务失败,极端情况下甚至可能会导致数据不一致或丢失。由于您所设置的Binlog日志保存时间低于DTS要求的时间进而导致的问题,不在DTS的SLA保障范围内。

  • 在库表结构同步和全量同步阶段,请勿执行库或表结构变更的DDL操作,否则会导致数据同步任务失败。

其他限制

  • 不支持同步源PolarDB MySQL版只读节点。

  • 不支持同步源PolarDB MySQL版的OSS外表。

  • 在DTS实例运行期间,请禁用目标库中已启用的触发器和外键,否则会导致DTS实例运行失败。

  • 执行数据同步前需评估源库和目标库的性能,同时建议业务低峰期执行数据同步。否则全量数据初始化时将占用源库和目标库一定的读写资源,可能会导致数据库的负载上升。

  • 全量初始化会并发执行INSERT操作,导致目标数据库的表产生碎片,因此全量初始化完成后目标实例的表空间比源实例的表空间大。

  • 对于表级别的数据同步,请勿对源库的同步对象使用pt-online-schema-change等类似工具执行在线DDL变更,否则会导致同步失败。

  • 对于表级别的数据同步,如果除DTS以外的数据没有写入目标库,您可以使用数据管理DMS(Data Management)来执行在线DDL变更,请参见不锁表结构变更

  • 在DTS同步期间,不允许有除DTS外的数据写入目标库,否则会导致源库与目标库数据不一致。例如,有除DTS外的数据写入目标库时,使用DMS执行在线DDL变更,可能引起目标库数据丢失。

  • 若自建Oracle为RAC架构,不支持配置ScanIP,仅支持将其中任意1个VIP配置到连接信息中,该方式配置后不支持RAC的节点切换。

  • 若实例运行失败,DTS技术支持人员将在8小时内尝试恢复该实例。在恢复失败实例的过程中,可能会对该实例进行重启、调整参数等操作。

    说明

    在调整参数时,仅会修改实例的参数,不会对数据库中的参数进行修改。可能修改的参数,包括但不限于修改实例参数中的参数。

其他注意事项

DTS会在源库定时执行CREATE DATABASE IF NOT EXISTS `test`命令以推进Binlog位点。