MaxCompute支持将开源Logstash收集的日志数据写入MaxCompute。您可以通过Logstash的输出插件logstash-output-maxcompute
,将Logstash收集的日志数据使用MaxCompute流式数据通道(Streaming Tunnel)功能上传到MaxCompute。
前提条件
- 已安装Logstash并创建Logstash日志收集实例。
更多信息,请参见Getting Started with Logstash。
- 已创建目标MaxCompute项目。
更多创建MaxCompute项目信息,请参见创建项目空间。
背景信息
Logstash是一个开源的服务器端数据处理管道,可以同时从多个数据源获取数据,并对数据进行转换,然后将转换后的数据发送到用户的目标“存储端”。
您需要通过Logstash的logstash-output-maxcompute
插件,将Logstash收集的日志数据使用MaxCompute流式数据通道(Streaming Tunnel)功能上传到MaxCompute。
logstash-output-maxcompute
插件基于Logstash v7.8.0版本开发,可以作为输出端口。该插件的特点如下:
- 使用流式数据通道,避免通过批量数据通道导入产生的并发和小文件问题。
- 支持动态分区,可以根据Logstash解析的日志字段产生分区字段,能够自动创建不存在的分区。
logstash-output-maxcompute
插件应用于如下场景:
- 需要收集的应用的日志格式在Logstash上有输入插件支持或易于解析,例如NGINX日志。
- 希望根据日志内容自动创建并导入对应分区。
logstash-output-maxcompute
插件支持的数据类型为:STRING、BIGINT、DOUBLE、DATETIME和BOOLEAN。
- 日志中DATETIME类型的字段的格式将自动使用
ruby Time.parse
函数推断。 - 如果日志BOOLEAN字段
.to_string().lowercase() == "true"
,则结果为True。其他任何值为False。
本文将以收集NGINX日志为例,介绍如何配置和使用插件。
步骤一:下载并安装插件
您可以下载已安装logstash-output-maxcompute
插件的Logstash实例,跳过安装步骤执行下一步。如果需要自行安装,请按照如下步骤操作:
步骤二:创建目标表
logstash_test_groknginx
。后续会将日志信息以日期为分区导入此表中。create table logstash_test_groknginx(
clientip string,
remote_user string,
time datetime,
verb string,
uri string,
version string,
response string,
body_bytes bigint,
referrer string,
agent string
) partitioned by (pt string);
步骤三:编写Logstash Pipeline配置文件
%logstash%
下创建配置文件pipeline.conf,并输入如下内容:input { stdin {} }
filter {
grok {
match => {
"message" => "%{IP:clientip} - (%{USER:remote_user}|-) \[%{HTTPDATE:httptimestamp}\] \"%{WORD:verb} %{NOTSPACE:request} HTTP/%{NUMBER:httpversion}\" %{NUMBER:response} %{NUMBER:body_bytes} %{QS:referrer} %{QS:agent}"
}
}
date {
match => [ "httptimestamp" , "dd/MMM/yyyy:HH:mm:ss Z" ]
target => "timestamp"
}
}
output {
maxctunnel {
aliyun_access_id => "<your_accesskey_id>"
aliyun_access_key => "<your_accesskey_secret>"
aliyun_mc_endpoint => "<your_project_endpoint>"
project => "<your_project_name>"
table => "<table_name>"
partition => "pt=$<timestamp.strftime('%F')>"
value_fields => ["clientip", "remote_user", "timestamp", "verb", "request", "httpversion", "response", "bytes", "referrer", "agent"]
}
}
参数 | 说明 |
---|---|
your_accesskey_id | 可以访问目标MaxCompute项目的AccessKey ID。 |
your_accesskey_secret | AccessKey ID对应的AccessKey Secret。 |
your_project_endpoint | 目标MaxCompute项目所在区域的Endpoint信息。更多Endpoint信息,请参见配置Endpoint。 |
your_project_name | 目标MaxCompute项目的名称。 |
table_name | 目标表的名称,即步骤二中创建的表。 |
partition | 配置插件如何根据日志字段生成对应的分区信息。如果目标表有多个分区,需要指定到最后一级。配置格式如下:
|
partition_time_format | 可选。指定当一个字符串型的日期时间字段被分区信息引用时,该字段的源格式字符串。
在本例中,时间字段 即使未使用 如果不使用
date 过滤插件,而是手动进行转换,则需要配置如下信息:
|
value_fields | 指定目标表中的每个字段对应的日志字段,指定顺序与表中字段的顺序一致。
目标表字段的顺序为 |
aliyun_mc_tunnel_endpoint | 可选。您可以通过此配置项强制指定Tunnel Endpoint,覆盖自动路由机制。 |
retry_time | 失败重试次数。当写入MaxCompute失败时,尝试重新写入的次数。默认值为3。 |
retry_interval | 失败重试间隔。在两次尝试之间最少间隔的时间,单位为秒。默认值为1。 |
batch_size | 一次最多处理的日志条数。默认值为100。 |
batch_timeout | 写入MaxCompute的超时时间,单位为秒。默认值为5。 |
(input { stdin {} })
。在实际应用场景中,您可以使用Logstash File输入插件从本地硬盘中自动读取NGINX日志。更多信息,请参见Logstash文档。
在文档使用中是否遇到以下问题
更多建议
匿名提交