MaxCompute的数据实时同步至Kafka时提示“job content must contain both reader and writer”错误

问题描述

使用DataWorks数据集成,将云原生大数据计算服务MaxCompute的数据实时同步至Kafka,在运维中心启动任务时提示以下错误:

job content must contain both reader and writer

系统显示类似如下。

问题原因

实时同步仅支持Kafka同步至MaxCompute, 不支持MaxCompute的数据实时同步至Kafka 。

解决方案

如果需要将云原生大数据计算服务MaxCompute的数据实时同步至Kafka,需要以离线方式将MaxCompute的数据同步至消息队列Kafka,进行数据同步,详情请参见数据集成导出数据

相关文档

适用于

  • 云原生大数据计算服务MaxCompute
  • 消息队列Kafka
阿里云首页 云原生大数据计算服务 MaxCompute 相关技术圈