MaxCompute的数据实时同步至Kafka时提示“job content must contain both reader and writer”错误
问题描述
使用DataWorks数据集成,将云原生大数据计算服务MaxCompute的数据实时同步至Kafka,在运维中心启动任务时提示以下错误:
job content must contain both reader and writer
系统显示类似如下。
问题原因
实时同步仅支持Kafka同步至MaxCompute, 不支持MaxCompute的数据实时同步至Kafka 。
解决方案
如果需要将云原生大数据计算服务MaxCompute的数据实时同步至Kafka,需要以离线方式将MaxCompute的数据同步至消息队列Kafka,进行数据同步,详情请参见数据集成导出数据。
相关文档
适用于
- 云原生大数据计算服务MaxCompute
- 消息队列Kafka