本文中含有需要您注意的重要提示信息,忽略该信息可能对您的业务造成影响,请务必仔细阅读。
本文介绍如何使用数据传输服务DTS(Data Transmission Service)将PolarDB-X 2.0的数据迁移至MaxCompute。
前提条件
- 已开通MaxCompute服务,并已创建MaxCompute项目。具体操作,请参见开通MaxCompute和创建MaxCompute项目。 
- 已设置MaxCompute白名单,允许DTS访问MaxCompute。具体操作,请参见设置阿里云产品访问MaxCompute白名单。 
- 已使用阿里云账号(主账号),创建并记录AccessKey信息。 
注意事项
| 类型 | 说明 | 
| 源库限制 | 
 | 
| 其他限制 | 
 | 
| 其他注意事项 | DTS会在源库定时更新`dts_health_check`.`ha_health_check`表以推进Binlog位点。 | 
费用说明
| 迁移类型 | 链路配置费用 | 公网流量费用 | 
| 结构迁移和全量数据迁移 | 不收费。 | 本示例不收费。 说明  当目标库的接入方式为公网IP时收取公网流量费用,详情请参见计费概述。 | 
| 增量数据迁移 | 收费,详情请参见计费概述。 | 
迁移类型说明
- 库表结构迁移 - DTS将源库中待迁移表的结构定义信息迁移至MaxCompute中,初始化时DTS会为表名增加_base后缀。例如源表为customer,那么MaxCompute中的表即为customer_base。 
- 全量迁移 - DTS将源库中待迁移表的存量数据,全部迁移至MaxCompute中的目标表名_base表中(例如从源库的customer表迁移至MaxCompute的customer_base表),作为后续增量迁移数据的基线数据。 说明- 该表也被称为全量基线表。 
- 增量迁移 - DTS在MaxCompute中创建一个增量日志表,表名为迁移的目标表名_log,例如customer_log,然后将源库产生的增量数据实时迁移到该表中。 说明- 关于增量日志表结构的详细信息,请参见增量日志表结构定义说明。 
支持增量迁移的SQL操作
| 操作类型 | SQL操作语句 | 
| DML | INSERT、UPDATE、DELETE | 
| DDL | ADD COLUMN 说明  不支持迁移包含属性的加列操作。 | 
数据库账号的权限要求
| 数据库 | 库表结构迁移 | 全量迁移 | 增量迁移 | 
| PolarDB-X 2.0实例 | SELECT权限 | SELECT权限 | REPLICATION SLAVE、REPLICATION CLIENT及待迁移对象的SELECT权限。 说明  授权方式,请参见数据同步过程中的账号权限问题。 | 
| MaxCompute | 读写权限 | ||
数据类型映射关系
详情请参见结构初始化涉及的数据类型映射关系。
操作步骤
- 进入目标地域的迁移任务列表页面(二选一)。 - 通过DTS控制台进入- 登录数据传输服务DTS控制台。 
- 在左侧导航栏,单击数据迁移。 
- 在页面左上角,选择迁移实例所属地域。 
 - 通过DMS控制台进入说明- 实际操作可能会因DMS的模式和布局不同,而有所差异。更多信息。请参见极简模式控制台和自定义DMS界面布局与样式。 - 登录DMS数据管理服务。 
- 在顶部菜单栏中,选择。 
- 在迁移任务右侧,选择迁移实例所属地域。 
 
- 单击创建任务,进入任务配置页面。 
- 配置源库及目标库信息。 警告- 选择源和目标实例后,建议您仔细阅读页面上方显示的使用限制,以成功创建并执行迁移任务。 - 类别 - 配置 - 说明 - 无 - 任务名称 - DTS会自动生成一个任务名称,建议配置具有业务意义的名称(无唯一性要求),便于后续识别。 - 源库信息 - 选择已有连接信息 - 若您需要使用已录入系统(新建或保存)的数据库实例,请在下拉列表中选择所需的数据库实例,下方的数据库信息将自动进行配置。 说明- DMS控制台的配置项为选择DMS数据库实例。 
- 若您未将数据库实例录入到系统,或无需使用已录入系统的数据库实例,则需要手动配置下方的数据库信息。 
 - 数据库类型 - 选择PolarDB-X 2.0。 - 接入方式 - 选择为云实例。 - 实例地区 - 选择源PolarDB-X 2.0实例所属地域。 - 是否跨阿里云账号 - 本示例为同一阿里云账号间的迁移,选择不跨账号。 - 实例ID - 选择源PolarDB-X 2.0实例ID。 - 数据库账号 - 填入源PolarDB-X 2.0实例的数据库账号,权限要求请参见数据库账号的权限要求。 - 数据库密码 - 填入该数据库账号对应的密码。 - 目标库信息 - 选择已有连接信息 - 若您需要使用已录入系统(新建或保存)的数据库实例,请在下拉列表中选择所需的数据库实例,下方的数据库信息将自动进行配置。 说明- DMS控制台的配置项为选择DMS数据库实例。 
- 若您未将数据库实例录入到系统,或无需使用已录入系统的数据库实例,则需要手动配置下方的数据库信息。 
 - 数据库类型 - 选择MaxCompute。 - 接入方式 - 选择云实例。 - 实例地区 - 选择目标MaxCompute项目所属地域。 - Project - 填入目标MaxCompute项目名称。 - 主账号AccessKeyId - 填入前提条件准备的一组AccessKey信息。 - 主账号AccessKeySecret 
- 配置完成后,在页面下方单击测试连接以进行下一步。 说明- 请确保DTS服务的IP地址段能够被自动或手动添加至源库和目标库的安全设置中,以允许DTS服务器的访问。更多信息,请参见添加DTS服务器的IP地址段。 
- 单击确定,完成MaxCompute账号授权。 
- 配置任务对象。 - 在对象配置页面,配置待迁移的对象。 - 配置 - 说明 - 迁移类型 - 如果只需要进行全量迁移,建议同时选中库表结构迁移和全量迁移。 
- 如果需要进行不停机迁移,建议同时选中库表结构迁移、全量迁移和增量迁移。 
 说明- 若未选中库表结构迁移,请确保目标库中存在接收数据的数据库和表,并根据实际情况,在已选择对象框中使用库表列名映射功能。 
- 若未选中增量迁移,为保障数据一致性,数据迁移期间请勿在源实例中写入新的数据。 
 - 目标已存在表的处理模式 - 预检查并报错拦截:检查目标数据库中是否有同名的表。如果目标数据库中没有同名的表,则通过该检查项目;如果目标数据库中有同名的表,则在预检查阶段提示错误,数据迁移任务不会被启动。 说明- 如果目标库中同名的表不方便删除或重命名,您可以更改该表在目标库中的名称,请参见库表列名映射。 
- 忽略报错并继续执行:跳过目标数据库中是否有同名表的检查项。 警告- 选择为忽略报错并继续执行,可能导致数据不一致,给业务带来风险,例如: - 表结构一致的情况下,在目标库遇到与源库主键的值相同的记录: - 全量期间,DTS会保留目标集群中的该条记录,即源库中的该条记录不会迁移至目标数据库中。 
- 增量期间,DTS不会保留目标集群中的该条记录,即源库中的该条记录会覆盖至目标数据库中。 
 
- 表结构不一致的情况下,可能导致只能迁移部分列的数据或迁移失败,请谨慎操作。 
 
 - 附加列规则 - DTS在将数据迁移到MaxCompute时,会在迁移的目标表中添加一些附加列。如果附加列和目标表中已有的列出现名称冲突将会导致数据迁移失败。您需要根据业务需求选择新规则或旧规则。 警告- 在选择附加列规则前,您需要评估附加列和目标表中已有的列是否会出现名称冲突。 - 增量日志表分区定义 - 根据业务需求,选择分区名称。关于分区的相关介绍请参见分区。 - 目标库对象名称大小写策略 - 您可以配置目标实例中迁移对象的库名、表名和列名的英文大小写策略。默认情况下选择DTS默认策略,您也可以选择与源库、目标库默认策略保持一致。更多信息,请参见目标库对象名称大小写策略。 - 源库对象 - 在源库对象框中选择待迁移对象,然后单击  将其移动至已选择对象框。说明 将其移动至已选择对象框。说明- 迁移对象选择的粒度为表。 - 已选择对象 - 如需更改单个迁移对象在目标实例中的名称,请右击已选择对象中的迁移对象,设置方式,请参见库表列名单个映射。 
- 如需批量更改迁移对象在目标实例中的名称,请单击已选择对象方框右上方的批量编辑,设置方式,请参见库表列名批量映射。 
 说明- 如果使用了对象名映射功能,可能会导致依赖这个对象的其他对象迁移失败。 
- 如需设置WHERE条件过滤数据,请在已选择对象中右击待迁移的表,在弹出的对话框中设置过滤条件。 
- 如需按库或表级别选择迁移的SQL操作,请在已选择对象中右击待迁移对象,并在弹出的对话框中选择所需迁移的SQL操作。 
 
- 单击下一步高级配置,进行高级参数配置。 - 配置 - 说明 - 选择调度该任务的专属集群 - DTS默认将任务调度到共享集群上,您无需选择。若您希望任务更加稳定,可以购买专属集群来运行DTS迁移任务。 - 源库、目标库无法连接后的重试时间 - 在迁移任务启动后,若源库或目标库连接失败则DTS会报错,并会立即进行持续的重试连接,默认重试720分钟,您也可以在取值范围(10~1440分钟)内自定义重试时间,建议设置30分钟以上。如果DTS在设置的时间内重新连接上源、目标库,迁移任务将自动恢复。否则,迁移任务将失败。 说明- 针对同源或者同目标的多个DTS实例,网络重试时间以后创建任务的设置为准。 
- 由于连接重试期间,DTS将收取任务运行费用,建议您根据业务需要自定义重试时间,或者在源和目标库实例释放后尽快释放DTS实例。 
 - 源库、目标库出现其他问题后的重试时间 - 在迁移任务启动后,若源库或目标库出现非连接性的其他问题(如DDL或DML执行异常),则DTS会报错并会立即进行持续的重试操作,默认持续重试时间为10分钟,您也可以在取值范围(1~1440分钟)内自定义重试时间,建议设置10分钟以上。如果DTS在设置的重试时间内相关操作执行成功,迁移任务将自动恢复。否则,迁移任务将会失败。 重要- 源库、目标库出现其他问题后的重试时间的值需要小于源库、目标库无法连接后的重试时间的值。 - 是否限制全量迁移速率 - 在全量迁移阶段,DTS将占用源库和目标库一定的读写资源,可能会导致数据库的负载上升。您可以根据实际情况,选择是否对全量迁移任务进行限速设置(设置每秒查询源库的速率QPS、每秒全量迁移的行数RPS和每秒全量迁移的数据量(MB)BPS),以缓解目标库的压力。 说明- 仅当迁移类型选择了全量迁移,才有此配置项。 
- 您也可以在迁移实例运行后,调整全量迁移的速率。 
 - 是否限制增量迁移速率 - 您也可以根据实际情况,选择是否对增量迁移任务进行限速设置(设置每秒增量迁移的行数RPS和每秒增量迁移的数据量(MB)BPS),以缓解目标库的压力。 说明- 仅当迁移类型选择了增量迁移,才有此配置项。 
- 您也可以在迁移实例运行后,调整增量迁移的速率。 
 - 是否去除正反向任务的心跳表sql - 根据业务需求选择是否在DTS实例运行时,在源库中写入心跳SQL信息。 - 是:不在源库中写入心跳SQL信息,DTS实例可能会显示有延迟。 
- 否:在源库中写入心跳SQL信息,可能会影响源库的物理备份和克隆等功能。 
 - 环境标签 - 您可以根据实际情况,选择用于标识实例的环境标签。本示例无需选择。 - 配置ETL功能 - 选择是否配置ETL功能。关于ETL的更多信息,请参见什么是ETL。 - 是:配置ETL功能,并在文本框中填写数据处理语句,详情请参见在DTS迁移或同步任务中配置ETL。 
- 否:不配置ETL功能。 
 - 监控告警 - 根据业务需求选择是否设置告警并接收告警通知。 - 不设置:不设置告警。 
- 设置:设置告警。您还需要设置告警阈值和告警联系人,当迁移失败或延迟超过阈值后,系统将进行告警通知。 
 
 
- 保存任务并进行预检查。 - 若您需要查看调用API接口配置该实例时的参数信息,请将鼠标光标移动至下一步保存任务并预检查按钮上,然后单击气泡中的预览OpenAPI参数。 
- 若您无需查看或已完成查看API参数,请单击页面下方的下一步保存任务并预检查。 
 说明- 在迁移任务正式启动之前,会先进行预检查。只有预检查通过后,才能成功启动迁移任务。 
- 如果预检查失败,请单击失败检查项后的查看详情,并根据提示修复后重新进行预检查。 
- 如果预检查产生警告: - 对于不可以忽略的检查项,请单击失败检查项后的查看详情,并根据提示修复后重新进行预检查。 
- 对于可以忽略无需修复的检查项,您可以依次单击点击确认告警详情、确认屏蔽、确定、重新进行预检查,跳过告警检查项重新进行预检查。如果选择屏蔽告警检查项,可能会导致数据不一致等问题,给业务带来风险。 
 
 
- 购买实例。 - 预检查通过率显示为100%时,单击下一步购买。 
- 在购买页面,选择数据迁移实例的链路规格,详细说明请参见下表。 - 类别 - 参数 - 说明 - 信息配置 - 资源组配置 - 选择实例所属的资源组,默认为default resource group。更多信息,请参见什么是资源管理。 - 链路规格 - DTS为您提供了不同性能的迁移规格,迁移链路规格的不同会影响迁移速率,您可以根据业务场景进行选择。更多信息,请参见数据迁移链路规格说明。 
- 配置完成后,阅读并选中《数据传输(按量付费)服务条款》。 
- 单击购买并启动,并在弹出的确认对话框,单击确定。 - 您可以在迁移任务列表页面,查看迁移实例的具体进度。 说明- 若迁移实例不包含增量迁移任务,则迁移实例会自动结束。迁移实例自动结束后,运行状态为已完成。 
- 若迁移实例包含增量迁移任务,则迁移实例不会自动结束,增量迁移任务会持续进行。在增量迁移任务正常运行期间,迁移实例的运行状态为运行中。 
 
 
增量日志表结构定义说明
您需要在MaxCompute中执行set odps.sql.allow.fullscan=true;,设置项目空间属性,允许进行全表扫描。
DTS在将MySQL产生的增量数据迁移至MaxCompute的增量日志表时,除了存储增量数据和增量日志表分区,还会存储一些如下表所示的元信息。
| 字段 | 说明 | 
| record_id | 增量日志的记录ID,为该日志唯一标识。 说明  
 | 
| operation_flag | 操作类型,取值: 
 | 
| utc_timestamp | 操作时间戳,即binlog的时间戳(UTC 时间)。 | 
| before_flag | 所有列的值是否为更新前的值,取值:Y或N。 | 
| after_flag | 所有列的值是否为更新后的值,取值:Y或N。 |