本文中含有需要您注意的重要提示信息,忽略该信息可能对您的业务造成影响,请务必仔细阅读。
阿里云Elasticsearch完全兼容开源Elasticsearch的功能及Security、Machine Learning、Graph、APM等商业功能,致力于数据分析、数据搜索等场景服务,支持企业级权限管控、安全监控告警、自动报表生成等功能。通过数据传输服务DTS(Data Transmission Service),您可以将PolarDB MySQL版同步至Elasticsearch,帮助您快速构建数据。
前提条件
已创建目标Elasticsearch实例(5.5、5.6、6.3、6.7或7.x版本),详情请参见开通阿里云Elasticsearch服务。
已开启PolarDB MySQL版的Binlog,详情请参见如何开启Binlog。
注意事项
DTS在执行全量数据初始化时将占用源库和目标库一定的读写资源,可能会导致数据库的负载上升,在数据库性能较差、规格较低或业务量较大的情况下(例如源库有大量慢SQL、存在无主键表或目标库存在死锁等),可能会加重数据库压力,甚至导致数据库服务不可用。因此您需要在执行数据同步前评估源库和目标库的性能,同时建议您在业务低峰期执行数据同步(例如源库和目标库的CPU负载在30%以下)。
不支持同步DDL操作,如果源库中待同步的表在同步的过程中,已经执行了DDL操作,您需要先移除同步对象,然后在Elasticsearch实例中移除该表对应的索引,最后新增同步对象。详情请参见移除同步对象和新增同步对象。
如果源库中待同步的表需要执行增加列的操作,您需要先在Elasticsearch实例中修改对应表的mapping,然后在PolarDB MySQL版中执行相应的DDL操作,最后暂停并启动DTS同步实例。
费用说明
同步类型 | 链路配置费用 |
库表结构同步和全量数据同步 | 不收费。 |
增量数据同步 | 收费,详情请参见计费概述。 |
支持同步的SQL操作
INSERT、DELETE、UPDATE
数据类型映射关系
由于PolarDB MySQL版与Elasticsearch实例支持的数据类型不同,数据类型无法完全对应。DTS在进行结构初始化时,会根据Elasticsearch实例支持的数据类型进行类型映射,详情请参见结构初始化涉及的数据类型映射关系。
操作步骤
购买数据同步作业,详情请参见购买流程。
说明购买时,选择源实例为PolarDB、目标实例为Elasticsearch,并选择同步拓扑为单向同步。
登录数据传输控制台。
说明若数据传输控制台自动跳转至数据管理DMS控制台,您可以在右下角的中单击,返回至旧版数据传输控制台。
在左侧导航栏,单击数据同步。
在同步作业列表页面顶部,选择同步的目标实例所属地域。
定位至已购买的数据同步实例,单击配置同步链路。
配置同步作业的源实例及目标实例信息。
类别
配置
说明
无
同步作业名称
DTS会自动生成一个同步作业名称,建议配置具有业务意义的名称(无唯一性要求),便于后续识别。
源实例信息
实例类型
固定为PolarDB实例,不可变更。
实例地区
购买数据同步实例时选择的源实例地域信息,不可变更。
PolarDB实例ID
选择源PolarDB MySQL版集群ID。
数据库账号
填入PolarDB MySQL版的数据库账号。
说明该账号需具备同步对象所属数据库的读权限。
数据库密码
填入数据库账号对应的密码。
目标实例信息
实例类型
固定为Elasticsearch,不可变更。
实例地区
购买数据同步实例时选择的目标实例地域信息,不可变更。
Elasticsearch
选择目标Elasticsearch实例ID。
数据库账号
填入连接Elasticsearch实例的账号,默认账号为elastic。
数据库密码
填入该账号对应的密码。
单击页面右下角的授权白名单并进入下一步。
如果源或目标数据库是阿里云数据库实例(例如RDS MySQL、云数据库MongoDB版等),DTS会自动将对应地区DTS服务的IP地址添加到阿里云数据库实例的白名单中;如果源或目标数据库是ECS上的自建数据库,DTS会自动将对应地区DTS服务的IP地址添到ECS的安全规则中,您还需确保自建数据库没有限制ECS的访问(若数据库是集群部署在多个ECS实例,您需要手动将DTS服务对应地区的IP地址添到其余每个ECS的安全规则中);如果源或目标数据库是IDC自建数据库或其他云数据库,则需要您手动添加对应地区DTS服务的IP地址,以允许来自DTS服务器的访问。DTS服务的IP地址,请参见DTS服务器的IP地址段。
警告DTS自动添加或您手动添加DTS服务的公网IP地址段可能会存在安全风险,一旦使用本产品代表您已理解和确认其中可能存在的安全风险,并且需要您做好基本的安全防护,包括但不限于加强账号密码强度防范、限制各网段开放的端口号、内部各API使用鉴权方式通信、定期检查并限制不需要的网段,或者使用通过内网(专线/VPN网关/智能网关)的方式接入。
配置索引名称、目标已存在表的处理模式和同步对象。
配置
说明
索引名称
表名
选择为表名后,在目标Elasticsearch实例中创建的索引名称和表名一致,在本案例中即为customer。
库名_表名
选择为库名_表名后,在目标Elasticsearch实例中创建的索引名称为库名_表名,在本案例中即为dtstestdata_customer。
目标已存在表的处理模式
预检查并报错拦截:检查目标数据库中是否有同名的索引。如果目标数据库中没有同名的索引,则通过该检查项目;如果目标数据库中有同名的索引,则在预检查阶段提示错误,数据同步作业不会被启动。
说明如果目标库中同名的索引不方便删除或重命名,您可以设置同步对象在目标实例中的名称来避免表名冲突。
忽略报错并继续执行:跳过目标数据库中是否有同名索引的检查项。
警告选择为忽略报错并继续执行,可能导致数据不一致,给业务带来风险,例如:
mapping结构一致的情况下,如果在目标库遇到与源库主键的值相同的记录,在初始化阶段会保留目标库中的该条记录;在增量同步阶段则会覆盖目标库的该条记录。
mapping结构不一致的情况下,可能会导致无法初始化数据、只能同步部分列的数据或同步失败。
选择同步对象
在源库对象框中单击待同步的对象,然后单击将其移动至已选择对象框。
同步对象的选择粒度为库、表。
映射名称更改
如需更改同步对象在目标实例中的名称,请使用对象名映射功能,详情请参见库表列映射。
源表DMS_ONLINE_DDL过程中是否复制临时表到目标库
如源库使用数据管理DMS(Data Management)执行Online DDL变更,您可以选择是否同步Online DDL变更产生的临时表数据。
是:同步Online DDL变更产生的临时表数据。
说明Online DDL变更产生的临时表数据过大,可能会导致同步任务延迟。
否:不同步Online DDL变更产生的临时表数据,只同步源库的原始DDL数据。
说明该方案会导致目标库锁表。
源、目标库无法连接重试时间
当源、目标库无法连接时,DTS默认重试720分钟(即12小时),您也可以自定义重试时间。如果DTS在设置的时间内重新连接上源、目标库,同步任务将自动恢复。否则,同步任务将失败。
说明由于连接重试期间,DTS将收取任务运行费用,建议您根据业务需要自定义重试时间,或者在源和目标库实例释放后尽快释放DTS实例。
在已选择对象区域框中,将鼠标指针放置在待同步的表上,并单击表名后出现的编辑,设置该表在目标Elasticsearch实例中的索引名称、Type名称等信息。
配置
说明
索引名称
详情请参见Elasticsearch基本概念。
警告索引名称和Type名称支持的特殊字符仅为下划线(_)。
如需将多个相同结构的源表同步到一个目标对象,您需要重复本步骤为这些表设置相同的索引名称和Type名称,否则会导致任务失败或数据丢失。
Type名称
过滤条件
您可以设置SQL过滤条件,过滤待同步的数据,只有满足过滤条件的数据才会被同步到目标实例,详情请参见通过SQL条件过滤任务数据。
是否分区
选择是否设置分区,如果您选择为是,您还需要设置分区列和分区数量。
设置_routing
设置_routing可以将文档路由存储在目标Elasticsearch实例的指定分片上,详情请参见_routing。
选择为是,您可以自定义列进行路由。
选择为否,则用_id进行路由。
说明创建的目标Elasticsearch实例为7.x版本时,您必须选择为否。
_id取值
表的主键列
联合主键合并为一列。
业务主键
如果选择为业务主键,那么您还需要设置对应的业务主键列。
添加参数
选择所需的字段参数和字段参数值,字段参数及取值介绍请参见Elasticsearch官方文档。
说明DTS目前仅支持可以选中的参数。
上述配置完成后,单击页面右下角的预检查并启动。
说明在同步作业正式启动之前,会先进行预检查。只有预检查通过后,才能成功启动同步作业。
如果预检查失败,单击具体检查项后的,查看失败详情。
您可以根据提示修复后重新进行预检查。
如无需修复告警检测项,您也可以选择确认屏蔽、忽略告警项并重新进行预检查,跳过告警检测项重新进行预检查。
在预检查对话框中显示预检查通过后,关闭预检查对话框,同步作业将正式开始。
等待同步作业的链路初始化完成,直至处于同步中状态。
您可以在数据同步页面,查看数据同步作业的状态。
查看同步后的索引和数据
数据同步作业处于同步中状态后,您可以连接Elasticsearch实例(本案例使用Head插件进行连接),确认创建的索引和同步的数据是否符合业务的预期。
如果不符合业务预期,您可以删除该索引及对应的数据,然后重新配置数据同步作业。