如果迁移的源实例为Teradata,您需要在配置具体的迁移任务前,参考本文的注意事项及限制,以保障数据迁移任务的正常运行。
Teradata迁移至云原生数据仓库AnalyticDB PostgreSQL版
具体注意事项及限制如下:类型 | 说明 |
---|
源库限制 | - 带宽要求:源库所属的服务器需具备足够出口带宽,否则将影响数据迁移速率。
- 待迁移的表需具备主键或唯一约束,且字段具有唯一性,否则可能会导致目标数据库中出现重复数据。
- 如迁移对象为表级别,且需进行编辑(如表列名映射),则单次迁移任务仅支持迁移至多1000张表。当超出数量限制,任务提交后会显示请求报错,此时建议您拆分待迁移的表,分批配置多个任务,或者配置整库的迁移任务。
- 源库的操作限制:
- 在库表结构迁移和全量迁移阶段,请勿执行库或表结构变更的DDL操作,否则数据迁移任务会失败。
- 本场景暂不支持增量迁移,为保障数据一致性,数据迁移期间请勿在源实例中写入新的数据。
|
其他限制 | - 目前仅支持在上海、青岛、张家口地域配置。
- 仅支持表级别的迁移,且目标表暂不支持AO表。
- 若使用列映射时为非全表迁移或者源与目标表结构不一致,则目标端比源端缺少的列的数据将会丢失。
- 本场景支持库表结构迁移和全量迁移,暂不支持增量迁移。
- 执行数据迁移前需评估源库和目标库的性能,同时建议业务低峰期执行数据迁移。否则全量数据迁移时DTS占用源和目标库一定读写资源,可能会导致数据库的负载上升。
- 由于全量数据迁移会并发执行INSERT操作,导致目标数据库的表产生碎片,因此全量迁移完成后目标数据库的表存储空间会比源实例的表存储空间大。
- 请确认DTS对数据类型为FLOAT或DOUBLE的列的迁移精度是否符合业务预期。DTS会通过
ROUND(COLUMN,PRECISION) 来读取这两类列的值。如果没有明确定义其精度,DTS对FLOAT的迁移精度为38位,对DOUBLE的迁移精度为308位。 - DTS会尝试恢复七天之内迁移失败任务。因此业务切换至目标实例前,请务必结束或释放该任务,或者将DTS访问目标实例账号的写权限用
revoke 命令回收掉。避免该任务被自动恢复后,源端数据覆盖目标实例的数据。
|