日志服务提供可托管、可扩展、高可用的数据加工服务。数据加工服务可用于数据的规整、富化、流转、脱敏和过滤。
快速了解数据加工
观看以下视频,快速了解数据加工。
日志服务提供丰富的数据加工视频,您可以通以下链接查看更多介绍和操作指导。更多信息,请参见数据加工视频专区。
视频主题 | 链接 |
数据加工语法 | |
查询字符串语法 | |
结构化数据解析 | |
映射富化 | |
数据流转 | |
Log转Metric | |
特殊数据处理(Base64文本、URL类数据、IP地址数据等) |
加工流程
数据加工服务通过如下三个步骤完成加工处理。
通过协同消费组对源Logstore的数据进行读取。
通过加工规则对读取到的每一条数据进行加工处理。
将加工后的数据写入目标Logstore。
数据加工完成后,您可以在目标Logstore中查看加工后的数据。
功能特性
日志服务提供数据加工功能,用于数据的规整、富化、流转、脱敏和过滤。具体说明如下:
数据规整:针对混乱格式的日志进行字段提取、格式转换,获取结构化数据以支持后续的流处理、数据仓库计算。
数据富化:对日志(例如订单日志)和维表(例如用户信息表)进行字段连接(JOIN),为日志添加更多维度的信息,用于数据分析。
数据流转:通过跨地域加速功能将海外地域的日志传输到中心地域,实现全球日志集中化管理。
数据脱敏:对数据中包含的密码、手机号、地址等敏感信息进行脱敏。
数据过滤:过滤出关键服务的日志,用于重点分析。
适用场景
数据规整(一对一):从源Logstore中读取日志数据,进行加工后输出到目标Logstore中。
数据分派(一对多):从源Logstore中读取日志数据,进行加工后分别输出到不同的目标Logstore中。
数据融合(多对一):分别从不同的源Logstore中读取日志数据,进行加工后输出到目标Logstore中。
加工语法
SLS DSL(Domain Specific Language)提供了200多个内置函数以及400多个正则表达式模式,同时提供灵活的自定义函数(UDF)能力。更多信息,请参见语法简介 。
优势
SLS DSL自由编排,包括过滤、规整、富化、流转、脱敏等。
实时处理、数据秒级可见、计算能力扩展、按量弹性伸缩、高吞吐能力。
面向日志分析场景,提供开箱即用的函数。
提供实时仪表盘、异常日志和告警集成功能。
全托管、免运维,与阿里云大数据产品、开源生态集成。
费用说明
若Logstore的计费模式为按写入数据量计费时,数据加工服务不产生费用,仅从日志服务公网域名所在接口拉取数据时,会产生外网读取流量(按照压缩后的数据量计算)。具体内容,可参见按写入数据量计费模式计费项。
若Logstore的计费模式为按使用功能计费时,数据加工服务会消耗机器与网络资源产生相应费用。更多信息,请参见按使用功能计费模式计费项。
您可以根据实际情况关闭源Logstore的索引,并设置较短的日志数据保存时间,以节省费用。更多信息,请参见性能指南和成本优化指南。