本文为您介绍DataHub Writer支持的数据类型、字段映射和数据源等参数及配置示例。

DataHub是实时数据分发平台、流式数据(Streaming Data)的处理平台,提供对流式数据的发布(Publish)、订阅(Subscribe)和分发功能,让您可以轻松构建基于流式数据的分析和应用。

DataHub服务基于阿里云自研的飞天平台,具有高可用、低延迟、高可扩展和高吞吐的特点。它与阿里云流计算引擎StreamCompute无缝连接,您可以轻松使用SQL进行流数据分析。DataHub同时提供分发流式数据至MaxCompute(原ODPS)、OSS等云产品的功能。
注意 STRING字符串仅支持UTF-8编码,单个STRING列最长允许1 MB。

参数配置

通过Channel将Source与Sink连接,在Writer端的Channel要对应Reader端的Channel类型。通常Channel包括Memory-ChannelFile-channel两种类型,如下配置即File通道。
"agent.sinks.dataXSinkWrapper.channel": "file"

参数说明

参数 描述 是否必选 默认值
accessId DataHub的accessId
accessKey DataHub的accessKey
endPoint 对DataHub资源的访问请求,需要根据资源所属服务,选择正确的域名。

详情请参见域名列表

maxRetryCount 任务失败的最多重试次数。
mode Value是STRING类型时,写入的模式。
parseContent 解析内容。
project 项目(Project)是DataHub数据的基本组织单元,一个Project下包含多个Topic。
说明 DataHub的项目空间与MaxCompute的项目相互独立,您在MaxCompute中创建的项目不能复用于DataHub,需要单独创建。
topic Topic是DataHub订阅和发布的最小单位,您可以用Topic来表示一类或者一种流数据。

详情请参见Project及Topic的数量限制

maxCommitSize 为提高写出效率,DataX会积累Buffer数据,待积累的数据大小达到maxCommitSize 大小(单位MB)时,批量提交到目的端。默认是1,048,576,即1 MB数据。另外datahub侧对于一次request请求写入的数据条数限制是10000条,超出10000条数据会超出限制导致任务出错,请根据您单条数据平均数据量*10000条的数据总量来从侧方面进行写入datahub的数据条数控制。 1MB

向导开发介绍

暂不支持向导开发模式。

脚本开发介绍

配置一个从内存中读数据的同步作业,使用脚本模式开发的详情请参见通过脚本模式配置任务
{
    "type": "job",
    "version": "2.0",//版本号。
    "steps": [
        { 
            "stepType": "stream",
            "parameter": {},
            "name": "Reader",
            "category": "reader"
        },
        {
            "stepType": "datahub",//插件名。
            "parameter": {
                "datasource": "",//数据源。
                "topic": "",//Topic是DataHub订阅和发布的最小单位,您可以用Topic来表示一类或者一种流数据。
                "maxRetryCount": 500,//任务失败的重试的最多次数。
                "maxCommitSize": 1048576//待积累的数据Buffer大小达到maxCommitSize大小(单位MB)时,批量提交至目的端。
                 //datahub侧对于一次request请求写入的数据条数限制是10000条,超出10000条数据会超出限制导致任务出错,请根据您单条数据平均数据量*10000条数据的数据总量来从侧方面进行单次写入datahub的数据条数控制。比如每条数据10 k,那么此参数的设置值要低于10*10000 k。
            },
            "name": "Writer",
            "category": "writer"
        }
    ],
    "setting": {
        "errorLimit": {
            "record": ""//错误记录数。
        },
        "speed": {
            "throttle":true,//当throttle值为false时,mbps参数不生效,表示不限流;当throttle值为true时,表示限流。
            "concurrent":20, //作业并发数。
            "mbps":"12"//限流
        }
    },
    "order": {
        "hops": [
            {
                "from": "Reader",
                "to": "Writer"
            }
        ]
    }
}