1.8.0 |
新增aliyun-timestream时序增强插件,支持TimeStream时序类型索引的增删改查,降低时序场景门槛,并支持使用PromQL查询数据以及按照InfluxDB的行协议写数据。详细信息请参见TimeStream时序增强引擎介绍和基于TimeStream对接Prometheus+Grafana实现可观测性和InfluxDB写协议接口。
|
1.7.1 |
新特性:
- OpenStore智能混合存储上线,突破传统冷热分离架构,大幅降低数据接入的复杂度及存储成本。您无须提前规划购买热数据存储空间,存储按实际用量付费;也无须手动配置冷热生命周期策略,系统会自动进行数据分层。
- 开启Indexing Service日志增强版集群支持设置取消托管时长,提升云上写入托管的稳定性。
|
1.7.0 |
- 新特性
Analyticsearch查询优化上线,基于日志检索插件实现查询性能大幅提升,具体说明如下:
- 日志检索场景,例如Kibana Discover查询加速,优化索引合并策略及Date_histogram执行计划策略,无条件或单条件查询性能提升6倍以上(日增量>1
TB数据量的场景下,分钟级查询可优化至5s内)。
- 优化并发查询,实现召回过程的并发,提高资源利用率,日志场景召回阶段平均耗时降低50%。
- 只读小segment在Force Merge前持续合并,相比合并前查询性能提升20%。
- 性能优化
- 协调节点和数据节点间写入请求传输使用轻量级压缩算法LZ4,节点网络带宽开销降低30%。
- 优化Force Merge任务的并发粒度至分片级别,降低Force Merge耗时。
- 支持配置原文大块压缩并优化ZSTD压缩算法参数,原文大小降低8%;通过优化Backports lucene postings pfor编码,索引大小降低3%。
- 当用户集群写入量较大,为缓解写入托管服务Indexing Service集群资源压力,可平滑迁移至更充足的资源空间,对用户集群无影响。
- Bug修复
- 修复aliyun-codec插件中,source_reuse_doc_values特性不支持带
. 的字段名问题。
- 修复日志增强版Indexing Service写入托管集群,在执行force_merge取消托管时,遇到分片relocating状态长时间卡住的问题。
|
1.6.0 |
|
1.5.0 |
|
1.4.0 |
|
1.3.0 |
- 提供慢查询隔离池,降低异常查询对集群稳定性的影响。
- 提供gig流控插件,实现机器异常秒级切流,降低坏节点导致查询抖动的概率。
说明 在商业版7.10.0中,gig流控插件默认集成在aliyun-qos集群限流插件中(默认已安装),不需要单独安装。
- 支持通用物理复制功能,提高有副本索引的写入性能。
- 支持时序查询剪枝功能,提高含时序字段范围的查询性能。
- 支持查询access.log,包括请求时间、客户端来源和请求内容等,可用于问题排查和请求分析。
- 主节点调度性能提升10倍,支持调度更多分片数。
|