文档

通过实时计算处理数据并同步到Elasticsearch

更新时间:

当您需要构建一个日志检索系统时,可通过实时计算Flink对日志数据进行计算后,输出到Elasticsearch进行搜索。本文以阿里云日志服务SLS(Log Service)为例,为您介绍具体的实现方法。

前提条件

您已完成以下操作:

背景信息

阿里云实时计算Flink是阿里云官方支持的Flink产品,支持包括Kafka、Elasticsearch等多种输入输出系统。实时计算Flink与Elasticsearch结合,能够满足典型的日志检索场景。

Kafka或LOG等系统中的日志,经过Flink进行简单或者复杂计算之后,输出到Elasticsearch进行搜索。结合Flink的强大计算能力与Elasticsearch的强大搜索能力,可为业务提供实时数据加工及查询,助力业务实时化转型。

实时计算Flink为您提供了非常简单的方式来对接Elasticsearch。例如当前业务中的日志或者数据被写入了LOG中,并且需要对LOG中的数据进行计算之后再写到Elasticsearch中进行搜索,可通过以下链路实现。Flink+ES数据链路

操作步骤

  1. 登录实时计算控制台

  2. 创建实时计算作业。

    具体操作,请参见阿里云实时计算Blink独享模式文档《Blink SQL开发指南》中的《作业开发》 > 《开发》章节。

  3. 编写Flink SQL。

    1. 创建日志服务LOG源表。

      create table sls_stream(
        a int,
        b int,
        c VARCHAR
      )
      WITH (
        type ='sls',  
        endPoint ='<yourEndpoint>',
        accessId ='<yourAccessId>',
        accessKey ='<yourAccessKey>',
        startTime = '<yourStartTime>',
        project ='<yourProjectName>',
        logStore ='<yourLogStoreName>',
        consumerGroup ='<yourConsumerGroupName>'
      );

      WITH参数说明如下表。

      变量

      说明

      endPoint

      阿里云日志服务的公网服务入口,即访问对应LOG项目及其内部日志数据的URL。详细信息,请参见服务入口

      例如杭州区域的日志服务入口为:http://cn-hangzhou.log.aliyuncs.com。需要在对应的服务入口前加http://

      accessId

      您账号的AccessKey ID。

      accessKey

      您账号的AccessKey Secret。

      startTime

      消费日志开始的时间点。运行Flink作业时所选时间要大于此处设置的时间。

      project

      LogService的项目名称。

      logStore

      LogService项目下具体的LogStore名称。

      consumerGroup

      日志服务的消费组名称。

    2. 创建Elasticsearch结果表。

      重要
      • 实时计算3.2.2及以上版本增加了Elasticsearch结果表功能。创建Flink作业时,请注意所选的版本。

      • Elasticsearch结果表的实现使用了REST API,可以兼容Elasticsearch的各个版本。

      CREATE TABLE es_stream_sink(
        a int,
        cnt BIGINT,
        PRIMARY KEY(a)
      )
      WITH(
        type ='elasticsearch-7',
        endPoint = 'http://<instanceid>.public.elasticsearch.aliyuncs.com:<port>',
        accessId = '<yourAccessId>',
        accessKey = '<yourAccessSecret>',
        index = '<yourIndex>',
        typeName = '<yourTypeName>'
      );

      WITH参数说明如下。

      参数

      说明

      endPoint

      阿里云Elasticsearch实例的公网地址,格式为http://<instanceid>.public.elasticsearch.aliyuncs.com:9200。可在实例的基本信息页面获取,详细信息请参见查看实例的基本信息

      accessId

      访问阿里云Elasticsearch实例的用户名,默认为elastic。

      accessKey

      对应用户的密码。elastic用户的密码在创建实例时设定,如果忘记可进行重置,重置密码的注意事项和操作步骤,请参见重置实例访问密码

      index

      索引名称。如果您还未创建过索引,需要先创建一个索引。具体操作,请参见步骤三:创建索引。您也可以开启自动创建索引功能,自动创建对应索引。具体操作,请参见配置YML参数

      typeName

      索引类型。7.0及以上版本的Elasticsearch实例必须为_doc

      说明
      • Elasticsearch支持根据PRIMARY KEY更新文档,且PRIMARY KEY只能为1个字段。指定PRIMARY KEY后,文档的ID为PRIMARY KEY字段的值。未指定PRIMARY KEY,文档的ID由系统随机生成。详细信息,请参见Index API

      • Elasticsearch支持多种更新模式,对应WITH中的参数为updateMode

        • updateMode=full时,新增的文档会完全覆盖已存在的文档。

        • updateMode=inc时,Elasticsearch会根据输入的字段值更新对应的字段。

      • Elasticsearch所有的更新默认为UPSERT语义,即INSERT或UPDATE。

    3. 处理业务逻辑并同步数据。

      INSERT INTO es_stream_sink
      SELECT 
        a,
        count(*) as cnt
      FROM sls_stream GROUP BY a
  4. 上线并启动作业。

    上线并启动作业后,即可将日志服务中的数据进行简单聚合后写入阿里云Elasticsearch中。

更多信息

使用实时计算Flink+Elasticsearch,可帮助您快速创建实时搜索链路。如果您有更复杂的Elasticsearch写入需求,可以使用实时计算Flink的自定义Sink功能来实现。

  • 本页导读 (1)
文档反馈