如果迁移的源数据库类型为PostgreSQL,如自建PostgreSQL、RDS PostgreSQL,您需要在配置具体的迁移任务前,参考本文的注意事项及限制,以保障数据迁移任务的正常运行。

源库为PostgreSQL的迁移方案概览

根据迁移方案,查看迁移任务的注意事项及限制:

PostgreSQL间的迁移

如果迁移的目标数据库类型为PostgreSQL,如RDS PostgreSQL、自建PostgreSQL,包括具体注意事项及限制如下:
类型 说明
源库限制
  • 带宽要求:源库所属的服务器需具备足够出口带宽,否则将影响数据迁移速率。
  • 待迁移的表需具备主键或唯一约束,且字段具有唯一性,否则可能会导致目标数据库中出现重复数据。
  • 如需进行增量迁移,数据日志:
    • 需开启。
    • 建议在全量迁移期间,数据日志至少保留7天以上。或者等到全量迁移完成后,再清理DTS任务运行后源库产生的数据日志。
      说明 为保障数据安全,DTS服务器只会存储源库近24小时或者50 GB的数据日志,一旦超出该限制,DTS服务器将自动清除超过限制的日志。
      警告 如您过早清理源库的数据日志,可能会导致增量迁移任务失败。例如源库的全量迁移数据较多,目标库写入异常等原因,导致全量迁移耗时超过24小时。在该情况下,过早清理源库的数据日志,DTS将无法获取到24小时前的wal日志,可能会导致增量迁移任务失败。
  • 源库的操作限制:
    • 在库表结构迁移和全量迁移阶段,请勿执行库或表结构变更的DDL操作,否则数据迁移任务会失败。
    • 如仅执行全量数据迁移,请勿向源库中写入新的数据,否则会导致源和目标数据不一致。为实时保持数据一致性,建议选择结构迁移、全量数据迁移和增量数据迁移。
其他限制
  • 为保障迁移任务的正常进行,在迁移期间仅支持RDS PostgreSQL 11进行主备切换,且需设置参数 rds_failover_slot_modesync,设置方式,请参见逻辑订阅故障转移(Failover Slot)
    警告 自建PostgreSQL或其他版本的RDS PostgreSQL进行主备切换,会导致迁移失败。
  • 单个数据迁移任务只能迁移一个数据库,如需迁移多个数据库,您需要为每个数据库配置数据迁移任务。
  • 增量数据迁移期间,如果迁移对象的选择粒度为Schema,在待迁移的Schema中创建了新的表或使用RENAME命令重建了待迁移的表,您需要在对该表写入数据前执行ALTER TABLE schema.table REPLICA IDENTITY FULL;命令。
    说明 将上述命令中的schematable替换成真实的Schema名和表名。
  • 为保障增量数据迁移延迟时间展示的准确性,DTS会在源库中新增一个名为dts_postgres_heartbeat的心跳表。
  • 增量数据迁移期间,DTS会在源库中创建前缀为dts_sync_的replication slot用于复制数据。DTS会每隔90分钟自动清理一次历史replication slot,避免其持续累积占用磁盘空间。
    说明 当释放迁移任务或迁移失败时,DTS会主动清理该replication slot;如果RDS PostgreSQL发生了主备切换,则需要您登录备库来手动清理。
    Amazon slot查询信息
  • 执行数据迁移前需评估源库和目标库的性能,同时建议业务低峰期执行数据迁移。否则全量数据迁移时DTS占用源和目标库一定读写资源,可能会导致数据库的负载上升。
  • 由于全量数据迁移会并发执行INSERT操作,导致目标数据库的表产生碎片,因此全量迁移完成后目标库的表存储空间会比源库的表存储空间大。
  • 请确认DTS对数据类型为FLOAT或DOUBLE的列的迁移精度是否符合业务预期。DTS会通过ROUND(COLUMN,PRECISION)来读取这两类列的值。如果没有明确定义其精度,DTS对FLOAT的迁移精度为38位,对DOUBLE的迁移精度为308位。
  • DTS会尝试恢复七天之内迁移失败任务。因此业务切换至目标实例前,请务必结束或释放该任务,或者将DTS访问目标实例账号的写权限用revoke命令回收掉。避免该任务被自动恢复后,源端数据覆盖目标实例的数据。
特殊情况
  • 当源或目标实例为RDS PostgreSQL时

    迁移期间,请勿修改RDS PostgreSQL的连接地址和可用区,否则会导致迁移失败。

    会导致迁移失败。

PostgreSQL迁移至MySQL

目前新版控制台支持配置以下链路:
  • RDS PostgreSQL迁移至RDS MySQL
  • 自建PostgreSQL迁移至自建MySQL
具体注意事项及限制如下:
类型 说明
源库限制
  • 带宽要求:源库所属的服务器需具备足够出口带宽,否则将影响数据迁移速率。
  • 待迁移的表需具备主键或唯一约束,且字段具有唯一性,否则可能会导致目标数据库中出现重复数据。
  • 如需进行增量迁移,数据日志:
    • 需开启。
    • 建议在全量迁移期间,数据日志至少保留7天以上。或者等到全量迁移完成后,再清理DTS任务运行后源库产生的数据日志。
      说明 为保障数据安全,DTS服务器只会存储源库近24小时或者50 GB的数据日志,一旦超出该限制,DTS服务器将自动清除超过限制的日志。
      警告 如您过早清理源库的数据日志,可能会导致增量迁移任务失败。例如源库的全量迁移数据较多,目标库写入异常等原因,导致全量迁移耗时超过24小时。在该情况下,过早清理源库的数据日志,DTS将无法获取到24小时前的wal日志,可能会导致增量迁移任务失败。
  • 源库的操作限制:
    • 为保障迁移任务的正常进行,在迁移期间仅支持RDS PostgreSQL 11进行主备切换,且需设置参数 rds_failover_slot_modesync,设置方式,请参见逻辑订阅故障转移(Failover Slot)
      警告 自建PostgreSQL或其他版本的RDS PostgreSQL进行主备切换,会导致迁移失败。
    • 在库表结构迁移和全量迁移阶段,请勿执行库或表结构变更的DDL操作,否则数据迁移任务会失败。
    • 如仅执行全量数据迁移,请勿向源库中写入新的数据,否则会导致源和目标数据不一致。为实时保持数据一致性,建议选择结构迁移、全量数据迁移和增量数据迁移。
其他限制
  • 增量数据迁移期间,如果迁移对象的选择粒度为Schema,在待迁移的Schema中创建了新的表或使用RENAME命令重建了待迁移的表,您需要在对该表写入数据前执行ALTER TABLE schema.table REPLICA IDENTITY FULL;命令。
    说明 将上述命令中的schematable替换成真实的Schema名和表名。
  • 为保障增量数据迁移延迟时间展示的准确性,DTS会在源库中新增一个名为dts_postgres_heartbeat的心跳表。
  • 增量数据迁移期间,DTS会在源库中创建前缀为dts_sync_的replication slot用于复制数据。DTS会每隔90分钟自动清理一次历史replication slot,避免其持续累积占用磁盘空间。
    说明 当释放迁移任务或迁移失败时,DTS会主动清理该replication slot;如果RDS PostgreSQL发生了主备切换,则需要您登录备库来手动清理。
    Amazon slot查询信息
  • 单个数据迁移任务只能迁移一个数据库,如需迁移多个数据库,您需要为每个数据库配置数据迁移任务。
  • 执行数据迁移前需评估源库和目标库的性能,同时建议业务低峰期执行数据迁移。否则全量数据迁移时DTS占用源和目标库一定读写资源,可能会导致数据库的负载上升。
  • 由于全量数据迁移会并发执行INSERT操作,导致目标数据库的表产生碎片,因此全量迁移完成后目标库的表存储空间会比源库的表存储空间大。
  • 请确认DTS对数据类型为FLOAT或DOUBLE的列的迁移精度是否符合业务预期。DTS会通过ROUND(COLUMN,PRECISION)来读取这两类列的值。如果没有明确定义其精度,DTS对FLOAT的迁移精度为38位,对DOUBLE的迁移精度为308位。
  • DTS会尝试恢复七天之内迁移失败任务。因此业务切换至目标实例前,请务必结束或释放该任务,或者将DTS访问目标实例账号的写权限用revoke命令回收掉。避免该任务被自动恢复后,源端数据覆盖目标实例的数据。
特殊情况
  • 当源实例为RDS PostgreSQL时

    迁移期间,请勿修改RDS PostgreSQL的连接地址和可用区,否则会导致迁移失败。

  • 当目标实例为RDS MySQL时

    DTS会自动在RDS MySQL中创建数据库,如果待迁移的数据库名称不符合RDS MySQL的定义规范,您需要在配置迁移任务之前在RDS MySQL中创建数据库。相关操作,请参见创建数据库

自建PostgreSQL迁移至PolarDB-O

具体注意事项及限制如下:
类型 说明
源库限制
  • 带宽要求:源库所属的服务器需具备足够出口带宽,否则将影响数据迁移速率。
  • 待迁移的表需具备主键或唯一约束,且字段具有唯一性,否则可能会导致目标数据库中出现重复数据。
  • 如需进行增量迁移,数据日志:
    • 需开启。
    • 建议在全量迁移期间,数据日志至少保留7天以上。或者等到全量迁移完成后,再清理DTS任务运行后源库产生的数据日志。
      说明 为保障数据安全,DTS服务器只会存储源库近24小时或者50 GB的数据日志,一旦超出该限制,DTS服务器将自动清除超过限制的日志。
      警告 如您过早清理源库的数据日志,可能会导致增量迁移任务失败。例如源库的全量迁移数据较多,目标库写入异常等原因,导致全量迁移耗时超过24小时。在该情况下,过早清理源库的数据日志,DTS将无法获取到24小时前的wal日志,可能会导致增量迁移任务失败。
  • 源库的操作限制:
    • 如自建PostgreSQL进行主备切换,会导致迁移失败。
    • 在库表结构迁移和全量迁移阶段,请勿执行库或表结构变更的DDL操作,否则数据迁移任务会失败。
    • 如仅执行全量数据迁移,请勿向源库中写入新的数据,否则会导致源和目标数据不一致。为实时保持数据一致性,建议选择结构迁移、全量数据迁移和增量数据迁移。
其他限制
  • 暂不支持结构迁移,在配置迁移任务前,您需要在目标实例中创建对应的库和表。
  • 增量数据迁移期间,如果迁移对象的选择粒度为Schema,在待迁移的Schema中创建了新的表或使用RENAME命令重建了待迁移的表,您需要在对该表写入数据前执行ALTER TABLE schema.table REPLICA IDENTITY FULL;命令。
    说明 将上述命令中的schematable替换成真实的Schema名和表名。
  • 为保障增量数据迁移延迟时间展示的准确性,DTS会在源库中新增一个名为dts_postgres_heartbeat的心跳表。
  • 增量数据迁移期间,DTS会在源库中创建前缀为dts_sync_的replication slot用于复制数据。DTS会每隔90分钟自动清理一次历史replication slot,避免其持续累积占用磁盘空间。
    说明 当释放迁移任务或迁移失败时,DTS会主动清理该replication slot;如果RDS PostgreSQL发生了主备切换,则需要您登录备库来手动清理。
    Amazon slot查询信息
  • 单个数据迁移任务只能迁移一个数据库,如需迁移多个数据库,您需要为每个数据库配置数据迁移任务。
  • 执行数据迁移前需评估源库和目标库的性能,同时建议业务低峰期执行数据迁移。否则全量数据迁移时DTS占用源和目标库一定读写资源,可能会导致数据库的负载上升。
  • 由于全量数据迁移会并发执行INSERT操作,导致目标数据库的表产生碎片,因此全量迁移完成后目标库的表存储空间会比源库的表存储空间大。
  • 请确认DTS对数据类型为FLOAT或DOUBLE的列的迁移精度是否符合业务预期。DTS会通过ROUND(COLUMN,PRECISION)来读取这两类列的值。如果没有明确定义其精度,DTS对FLOAT的迁移精度为38位,对DOUBLE的迁移精度为308位。
  • DTS会尝试恢复七天之内迁移失败任务。因此业务切换至目标实例前,请务必结束或释放该任务,或者将DTS访问目标实例账号的写权限用revoke命令回收掉。避免该任务被自动恢复后,源端数据覆盖目标实例的数据。