资源组操作及网络连通问题
- 数据同步网络连通问题
- 资源组配置操作问题
实时同步常见问题
- 实时同步任务配置须知
- 实时同步Kafka数据
- 实时同步MySQL数据
- 实时同步Hologres数据
离线同步常见问题
- 离线同步任务运维常见问题
- 非具体插件报错原因与解决方案
- 如何处理编码格式设置/乱码问题导致的脏数据报错?
- 数据同步时报错:
[TASK_MAX_SLOT_EXCEED]:Unable to find a gateway that meets resource requirements. 20 slots are requested, but the maximum is 16 slots.
- 任务存在SSRF攻击
Task have SSRF attacts
如何处理? - 离线同步报错:
OutOfMemoryError: Java heap space
- 离线同步任务执行偶尔成功偶尔失败
- 离线同步常见问题
- 离线同步报错
Duplicate entry 'xxx' for key 'uk_uk_op'
如何处理? - 离线同步报错
plugin xx does not specify column
如何处理?
- 具体插件报错原因及解决方案
- 添加MongoDB数据源时,使用root用户时报错
- MongoDB使用的authDB库为admin库,如何同步其他业务库数据?
- 读取MongoDB时,如何在query参数中使用timestamp实现增量同步?
- 读取OSS数据报错:
AccessDenied The bucket you access does not belong to you.
- 读取OSS文件是否有文件数限制?
- 写入Redis使用hash模式存储数据时,报错如下:
Code:[RedisWriter-04], Description:[Dirty data]. - source column number is in valid!
- 写入/读取MySQL报错:
Application was streaming results when the connection failed. Consider raising value of 'net_write_timeout/net_read_timeout、' on the server.
- 读取MySQL数据库报错
The last packet successfully received from the server was 902,138 milliseconds ago
- 读取PostgreSQL数据报错,该如何处理?
- 报错
Communications link failure
,该如何处理? - 读取MaxCompute(ODPS)表数据报错
The download session is expired.
- 写入MaxCompute(ODPS)报错block失败:
Error writing request body to server
- 写入DataHub时,一次性写入数据超限导致写入失败如何处理?
- 离线同步场景及解决方案
- 离线同步常见问题
- 离线同步任务如何自定义表名?
- 配置离线同步节点时,无法查看全部的表,该如何处理?
- 读取MaxCompute(ODPS)表数据时,添加一行注意事项
- 读取MaxCompute(ODPS)表数据时,如何同步分区字段?
- 读取MaxCompuet(ODPS)表数据时,如何同步多个分区数据?
- 如何处理表列名有关键字导致同步任务失败的情况?
- 读取Loghub同步某字段有数据但是同步过来为空
- 读取Loghub同步少数据
- 读取Loghub字段映射时读到的字段不符合预期
- 读取kafka配置了endDateTime来指定所要同步的数据的截止范围,但是在目的数据源中发现了超过这个时间的数据。
- 写入OSS出现随机字符串如何去除?
- MySQL分库分表如何将分表同步到一张MaxCompute中