心选市场售卖

本文介绍如何购买流数据服务Confluent商品。购买流程 在阿里云云市场流数据服务Confluent商品售卖页中点击“立即购买”,跳转至流数据服务Confluent集群创建管控页。在流数据服务Confluent集群创建管控页进行集群配置和商品购买。操作步骤 ...

开通数据订阅

操作步骤 数据订阅功能需要在控制台完成两次开通操作,分别购买流数据节点和LTS节点。购买流数据节点 说明 如果您的实例已开通引擎,则不涉及该步骤。登录 Lindorm管理控制台。在页面左上角,选择实例所属的地域。在 实例列表 页,单击...

数据流运维

您可以在数据流运维中心查看数据流的发布状态、发布详情、运行记录等。登录 数据管理DMS 5.0。在顶部菜单栏中,选择 集成与开发(DTS)>数据集成>离线集成。单击数据流名称,进入数据流详情页面。单击画布右上方 前往运维。在数据流运维...

发布数据流

完成数据流的配置或变更后,您需要通过发布操作将最新的数据流发布,有效避免部分变更未经确认被直接发布。登录 数据管理DMS 5.0。在顶部菜单栏中,选择 集成与开发(DTS)>数据集成>离线集成。单击数据流名称,进入数据流详情页面。可选:...

CREATE STREAM

创建一张数据流表,表示一个无界的事件集合。数据流表仅支持新增数据,不支持更新数据和删除数据。数据流表中的最小单元为Record,Record有预定义的Schema。数据流表的物理数据存储在流存储的某个指定的Topic上,具体的存储格式可以在With...

离线集成概述

数据管理DMS离线集成是一种低代码的数据开发工具,您可以组合各类任务节点,形成数据流,通过周期调度运行达到数据加工、数据同步的目的。支持的数据库类型 MySQL:RDS MySQL、PolarDB MySQL版、MyBase MySQL、PolarDB分布式版、AnalyticDB...

创建数据流

在数据管理DMS离线集成中,可以组合各类任务节点,形成数据流,通过周期调度运行达到数据加工、数据同步的目的。本文介绍创建数据流和配置的方法。前提条件 支持的数据库类型:MySQL:RDS MySQL、PolarDB MySQL版、MyBase MySQL、PolarDB...

DROP STREAM

删除数据流表。语法 DROP STREAM(IF EXISTS)table_name;参数 参数 是否必选 说明 table_name 是 数据流表的名称。示例 DROP STREAM users_original;

概述

背景信息 Flink核心是一个流式的数据流执行引擎,其针对数据流的分布式计算提供了数据分布、数据通信以及容错机制等功能。基于流执行引擎,Flink提供了更高抽象层的API以便您编写分布式任务。Flink(VVR)完全兼容开源Flink,相关内容请...

CREATE CQ

连续查询(Continuous Query,简称CQ),对Lindorm流引擎中的实时数据进行计算(过滤、转换、增强、聚合),并将计算结果写入到另一个数据流表或者外表中,直到用户执行终止连续查询操作才会停止计算。本文介绍创建连续查询任务的语法。...

通过引擎实现地理围栏监控

将车辆的实时点位数据写入Lindorm流引擎的input_stream数据流表中,将车辆点位数据和地理围栏数据进行关联并判断车辆点位是否在地理围栏内,并将异常车辆数据输出到output_stream数据流表,同时也可以订阅异常数据进行报警。场景实现的原理...

新建连接模板

单击左上角的,在 新增数据流 对话框中,您需在 数据流名称 配置ETL任务名称,选择 开发方式 为 DAG。单击 确认。在页面左侧,将 输入/维表 MySQL 节点拖拽至页面右侧画布的空白区域。单击画布区域的 输入/维表 MySQL-1,在下方的 节点配置...

配置转换组件

单击左上角的,在 新增数据流 对话框中,您需在 数据流名称 配置ETL任务名称,选择 开发方式 为 DAG。单击 确认。完成数据源信息的配置,配置方法请参见 配置源库信息。重要 需要配置两个源库。在页面左侧,将 表 Join 节点拖拽至页面右侧...

RBAC授权

本文介绍如何在数据流服务Confluent控制台中进行RBAC授权。背景信息 RBAC的全称是Role Based Access Control。RBAC的授权方式是基于角色进行授权的,而ACL是基于权限进行授权。因此,RBAC比ACL更适合批量授权以及权限回收。RBAC授权主要有...

用户管理

作为集群安全的一部分,数据流服务Confluent提供了用户管理功能。您可以在用户管理页面完成新增用户、修改密码、删除用户等操作。本文介绍用户管理的具体操作步骤。查看用户列表 首先登录 流数据服务Confluent管控页,点击集群管理>进入...

事件概述

指标监控 事件流提供多个指标,您可以使用这些指标监控数据流的运行状况,并设置接近阈值的警报,出现异常时及时响应,确保数据流正常运行。节约成本 无最低消费,按照传输至事件流的数据量进行计费,并为您提供数据量看板,使费用计算更加...

ACL授权

ACL授权主要有两种方式:使用数据流服务Confluent控制台实现ACL授权。本文详细介绍这一授权方式。使用Confluent CLI实现ACL授权。操作指引请参见 使用Confluent CLI进行ACL管理。管控侧ACL授权步骤 首先登录 流数据服务Confluent管控页,...

SELECT

流引擎兼容Apache Flink SQL的SELECT语句。Apache Flink V1.17.1 SELECT语句详情如下表所示。...Top-N 去重 从数据流中去除重复的行数据。Deduplication 说明 如果您需要查看其它版本Queries语句,请注意切换到对应版本。

函数概览

函数 说明 窗口函数 将数据流分割为指定大小的集合,并支持基于集合进行计算。聚合函数 返回一组数值的统计或计算结果。条件函数 返回指定条件下的数据处理、判断等结果。比较函数 比较两个或多个对象的值,并返回比较结果。算术函数 返回...

产品简介

什么是Confluent Platform Confluent Platform 是一个全面的数据流企业级平台,使您能够以连续、实时的流形式轻松访问、存储和管理数据。Confluent 由 Apache Kafka 的原始创建者构建,通过企业级功能扩展了 Kafka 的优势,同时消除了 ...

数据质量:全流程的质量监控

数据质量以数据集(DataSet)为监控对象,支持监控MaxCompute数据表和DataHub实时数据流。当离线MaxCompute数据发生变化时,数据质量会对数据进行校验,并阻塞生产链路,以避免问题数据污染扩散。同时,数据质量提供历史校验结果的管理,...

同步方案概览

数据同步功能帮助您实现数据源之间的数据实时同步,适用于数据异地多活、数据异地灾备、本地数据灾备、跨境数据同步、云BI及实时数据仓库等多种业务场景。本文将介绍数据同步功能支持的数据库、同步类型和同步拓扑。说明 数据同步在某些...

功能特性

基于此,DataHub新上线的订阅服务提供了服务端保存用户消费点位的功能,用户只需要通过简单的几步配置,然后在自己的应用逻辑里添 创建订阅 删除订阅 查看订阅 数据流消息管理 数据流消息管理 对Project、Topic、shard、group的管理与操作...

需求分析

根据规范设计工作流(即业务流程):基于数据流设计工作流:DataWorks上任务上下游关系遵循节点名与表名一一对应原则,基于数据流设计工作流。节点命名规范详情请参见:配置同周期调度依赖。新增业务流程管理设计:由于OSS同步任务(ods_...

需求分析

根据规范设计工作流(即业务流程):基于数据流设计工作流:DataWorks上任务上下游关系遵循节点名与表名一一对应原则,基于数据流设计工作流。节点命名规范详情请参见:配置同周期调度依赖。新增业务流程管理设计:由于OSS同步任务(ods_...

配置源库信息

单击左上角的,在 新增数据流 对话框中,您需在 数据流名称 配置ETL任务名称,选择 开发方式 为 DAG。单击 确认。在页面左侧,将 输入/维表 MySQL 节点拖拽至页面右侧画布的空白区域。单击画布区域的 输入/维表 MySQL-1,根据页面信息配置...

概述

架构 Flume Agent是一个Flume的实例,本质是一个JVM进程,控制Event数据流从生产者传输到消费者。一个Flume Agent由Source、Channel、Sink组成。其中,Source和Channel可以是一对多的关系,Channel和Sink也可以是一对多的关系。基本概念 ...

管理运维中心

单击 详情,可查看所选作业的详细信息,包括作业实例信息、提交日志、YARN容器列表、审计日志和数据流监控。单击 启动 或 停止,可启动或是停止所选的作业。管理流式作业 使用阿里云账号登录 Databricks数据洞察控制台。在Databricks数据...

INSERT INTO

数据流表支持写入新的数据行,本文介绍通过DML语句将值插入流表中。语法 INSERT INTO[catalog_name.][db_name.]stream_name VALUES values_row[,values_row.]values_row:(val1[,val2,.])参数说明 参数 是否必选 说明 catalog_name 否 目标...

应用场景

实时数据通道 1.1 接入多种异构数据并投递到下游多种大数据系统 通过数据总线,您可以实时接入APP、WEB、IoT和数据库等产生的异构数据,统一管理,并投递到下游的分析、归档等系统,构建清晰的数据流,让您更好的释放数据的价值。...

支持的数据库

全量数据同步 增量数据同步 单向同步 RDS MySQL同步至自建Oracle PolarDB-X 1.0 全量数据同步 增量数据同步 单向同步 从RDS MySQL同步至PolarDB-X PolarDB-X 2.0 库表结构同步 全量数据同步 增量数据同步 单向同步 RDS MySQL同步至PolarDB-...

如何对JSON类型进行高效分析

IMCI)功能推出了完备的虚拟列与列式JSON功能等,可以快速处理大数据和多种数据类型(包括结构化数据与半结构化数据等),并提供高效的数据分析、查询与计算能力,适用于数据分析、数据仓库与扩展计算等应用场景。针对海量半结构化数据...

产品概述

动态伸缩 每个主题(Topic)的数据流吞吐能力可以动态扩展和减少,最高可达到每主题256000 Records/s的吞吐量。高安全性 提供企业级多层次安全防护,多用户资源隔离机制;提供多种鉴权和授权机制及白名单、主子账号功能。使用场景 数据总线...

集成与开发概览

离线集成是一种低代码的数据开发工具,您可以组合各类任务节点,形成数据流,通过周期调度运行达到数据加工、数据同步的目的,进而对在线数据库、数据仓库的数据进行加工处理并同步至目的端。流式ETL。更多信息,请参见 流式ETL。通过可视...

应用场景

实时数据流场景 DataFlow集群类型提供了Flink、Kafka、Paimon等服务,主要用于解决实时计算端到端的各类问题,广泛应用于实时数据ETL和日志采集分析等场景。通过采集程序将业务数据、日志和埋点数据等投递到EMR Kafka,利用Flink的实时计算...

概述

您可以创建SQL类型的流数据分析任务,并在边缘端执行该任务。边缘端SQL语法与云端Flink SQL语法完全一致,语法说明请参见 Flink SQL概述。在流数据分析中,数据存储用源表、维表、结果表来表示。但由于运行环境不一样,边缘端与云端支持的...

CREATE STREAM

数据流表仅支持新增数据,不支持更新数据和删除数据。本文介绍如何通过DDL语句创建流表。语法 CREATE STREAM[IF NOT EXISTS][catalog_name.][db_name.]stream_name({|<metadata_column_definition>}[,.n][][,.n])[COMMENT table_comment]...

网络访问与安全设置

本文介绍如何进行流数据服务Confluent集群的网络访问与安全设置。网络访问类型 流数据服务Confluent集群提供阿里云VPC访问和公网访问方式。阿里云VPC访问 VPC访问是指您在流数据服务Confluent集群所在网络VPC内或者其它VPC访问和使用流数据...

分配流数据分析到边缘实例

本文介绍创建流数据分析任务、发布任务和分配流数据分析任务到边缘实例的整个步骤。前提条件 请您确保已创建完成边缘实例,具体操作请参见 专业版环境搭建。操作步骤 登录 数据分析控制台。创建、设置并发布流数据任务。具体操作,请参见 ...

什么是边缘流数据分析

流数据分析是一种使用的方法快速实时处理数据的计算方式。边缘计算中的流数据分析,继承了物联网平台的流数据分析能力。在数据分析控制台创建 流数据分析任务,并将该任务下发到边缘端,通过边缘设备实时运行。运行结果可以存储在边缘端...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
数据传输服务 云数据库 Redis 版 云数据库 RDS 云数据库HBase版 数据库备份 DBS 弹性公网IP
新人特惠 爆款特惠 最新活动 免费试用