pg_cron

用户可以通过SQL语句创建定时任务,并在指定的时间点或时间间隔内自动执行任务。pg_cron 的优势如下:简单易用:执行SQL语句即可创建、调度和管理任务,无需额外的编程或配置。灵活的调度选项:支持按分钟、小时、日期、星期、月份及其组合...

pg_cron

用户可以通过SQL语句创建定时任务,并在指定的时间点或时间间隔内自动执行任务。pg_cron 的优势如下:简单易用:执行SQL语句即可创建、调度和管理任务,无需额外的编程或配置。灵活的调度选项:支持按分钟、小时、日期、星期、月份及其组合...

pg_cron

用户可以通过SQL语句创建定时任务,并在指定的时间点或时间间隔内自动执行任务。pg_cron 的优势如下:简单易用:执行SQL语句即可创建、调度和管理任务,无需额外的编程或配置。灵活的调度选项:支持按分钟、小时、日期、星期、月份及其组合...

RDS MySQL慢SQL问题

定时任务 原因及现象 如果实例负载随时间有规律性变化,可能是存在定时任务。说明 您可以在 监控与报警 页面的 标准监控 页签查看相关监控信息。解决方案 调整定时任务的执行时间,建议在业务低峰期执行。总结 RDS上定位慢SQL的主要方法...

授权概述

定时SQL任务SQL分析权限 定时SQL任务在源Logstore、源MetricStore中执行SQL分析操作时,需具备SQL分析权限,详细说明如下:默认角色:默认角色AliyunLogETLRole具备执行SQL分析的权限,因此您可以授权定时SQL任务扮演默认角色来获取SQL...

管理定时SQL任务

您可以在定时SQL的管理页面进行查看定时SQL任务基础信息、查看执行实例、重试、修改或删除定时SQL任务等操作。前提条件 已创建定时SQL任务。具体操作,请参见 从Logstore到Logstore、从Logstore到MetricStore 或 从MetricStore到...

定时SQL任务设置告警

日志服务定时SQL已内置监控规则模板,您只需添加对应的告警规则即可实时监控定时SQL任务,并可通过钉钉等渠道接收到告警通知。本文介绍设置告警的相关操作。前提条件 已创建定时SQL任务。如果是将源Logstore中的数据通过定时SQL处理后存储...

降采样概述

工作原理 当创建一个降采样配置时,会根据配置的存储时长创建时序子库,并根据配置的聚合周期创建降采样定时任务。第一条降采样配置,由主时序库向第一个时序子库中写入;第二条降采样配置,由第一个时序子库向第二个时序子库中写入,...

定时SQL Exactly-Once

日志服务定时SQL保证每次任务的计算结果都以Exactly-Once方式写入到目标存储库(Logstore和MetricStore),确保数据不会重复写入,也不会丢失。日志服务基于Logstore的幂等写入来实现定时SQL结果数据的Exactly-Once。说明 本文内容适用于...

时间表达式语法

您在创建定时SQL任务时,可指定SQL时间窗口。定时SQL任务运行时,日志服务仅分析该SQL时间窗口内的日志。本文介绍SQL时间窗口相关的时间表达式语法。操作符 时间表达式支持的操作符如下表所示:操作符 说明+加号-减号@取整操作符,根据时间...

配置自定义角色权限(同账号场景)

日志服务定时SQL任务运行时,将在源Logstore中执行SQL分析操作,并将分析结果保存到目标存储中。您可以授予定时SQL任务使用自定义角色来完成以上操作。如果源Logstore和目标Logstore属于同一个阿里云账号,您可参考本文档完成授权操作。...

查看数据报表

作业监控 作业监控 仪表盘用于展示数据导入任务(新版)、投递任务(新版)或定时SQL任务运行情况,包括读成功条数、读失败条数、写成功条数、写失败条数、读公网流量、写公网流量、处理速率、进度落后、运行异常等图表。额度监控 额度监控...

概述

管理语句:对DDL任务进行查看或者操作的 PolarDB-X 1.0 专有的SQL语句任务ID:DDL任务的唯一标识,是一个64位有符号的长整型数值。任务状态:DDL任务的内部状态。关于任务管理语句的语法和用法,请参见 任务管理语句。

创建EMR Hive节点

您可以创建EMR(E-MapReduce)HIVE节点,通过类SQL语句协助读写、管理存储在分布式存储系统上的大数据集的数据仓库,完成海量日志数据的分析和开发工作。前提条件 数据开发(DataStudio)中已创建业务流程。数据开发(DataStudio)基于业务...

创建EMR Impala节点

使用SQL语句创建任务。在SQL编辑区域输入任务代码,示例如下。show tables;CREATE TABLE IF NOT EXISTS userinfo(ip STRING COMMENT'ip地址',uid STRING COMMENT'用户ID')PARTITIONED BY(dt STRING);ALTER TABLE userinfo ADD IF NOT ...

创建EMR Spark SQL节点

使用SQL语句创建任务。在SQL编辑区域输入任务代码,示例如下。show tables;CREATE TABLE IF NOT EXISTS userinfo_new_${var}(ip STRING COMMENT'ip地址',uid STRING COMMENT'用户ID')PARTITIONED BY(dt STRING);可以结合调度参数使用。说明...

DBMS_JOB

查看定时任务 您可以通过如下语句查看当前用户创建的定时任务列表:select*from sys.user_jobs;查看任务执行记录 您可以通过如下语句查看定时任务的执行记录:select*from dbmsjob.pga_joblog;跨库执行定时任务 由于DBMS_JOB只能配置在 ...

定时SQL

为了保证这些功能的正常运行,定时SQL限制了这类任务的变更操作,即不支持在定时SQL任务管理界面对这类任务进行更新、复制和删除操作。如果您需要更新、复制和删除任务,请在相关功能的界面中执行。查询与分析 重要 定时SQL仅支持SQL独享...

使用限制

为了保证这些功能的正常运行,定时SQL限制了这类任务的变更操作,即不支持在定时SQL任务管理界面对这类任务进行更新、复制和删除操作。如果您需要更新、复制和删除任务,请在相关功能的界面中执行。查询与分析 重要 定时SQL仅支持SQL独享...

Dataphin的sql代码任务中的SQL语句数有什么限制

Not Support:sql count>=100 in a script 问题原因 Dataphin对sql代码的语句数量有限制 解决方案 目前Dataphin的sql代码任务语句数量限制在100条以内(以分号分隔)。之所以在开发环境可以执行超过100条的sql代码,是因为在开发环境手动...

可选:运维SQL分析任务

手动调度SQL分析任务 SQL分析任务发布后,系统按周期调度任务。您也可以根据需要,进行手动调度任务。在 分析洞察 页面,单击 任务运维。在 任务运维 页面下,单击 手动实例 页签,然后单击 新建手动任务。在 新建手动任务 面板中,完成...

MySQL节点

您可以通过创建MySQL节点,直接使用SQL语句对目标MySQL数据源进行数据开发。本文为您介绍如何创建并使用MySQL节点。前提条件 MySQL节点仅支持使用独享调度资源组,独享调度资源组的使用请参考文档:新增和使用独享调度资源组。已通过连接串...

通过Flink SQL模式配置ETL任务

在 数据加工 页面的SQL命令窗口,添加用于配置ETL任务SQL语句。本案例以如下SQL语句为例,配置ETL任务,将流表test_orders与维表product结合至目标表test_orders_new中。重要 SQL语句间需以英文分号;分割。CREATE TABLE `etltest_test_...

通过DataWorks管理作业

在SQL编辑页面,编写SQL语句完成任务调试和运行。任务流编排(JDBC作业)通过以下步骤可以完成开发任务的编排。创建周期业务流程。如何创建,请参见 创建周期业务流程。拖拽 CDH Hive 节点至业务流程面板。双击调度节点,进入SQL编辑页面。...

一键MaxCompute数据同步节点

DataWorks将根据同步配置,自动解析出运行当前同步任务SQL语句。您可使用该语句进入Hologres的代码编辑页面使用SQL方式执行同步任务。说明 生成的SQL Script无法编辑。当同步任务配置更新时,刷新SQL Script,即可生成新的SQL语句。使用...

车辆数据分析和价值挖掘

以车辆加速档位最近一天使用分析为例,如下图所示:具体内容,请参见 创建SQL分析任务、编写SQL语句。数据表分析 在 SQL数据服务工作台 的左侧边栏,展示 产品存储表、自定义存储表 和 平台系统表,您可以在SQL分析任务中按需使用这些数据...

HIVECLI

标准集群(非高安全集群),如果需要设置执行用户,请确保YARN服务包含如下配置项:yarn.nodemanager.container-executor.class=org.apache.hadoop.yarn.server.nodemanager.LinuxContainerExecutor yarn.nodemanager.... 中填写SQL语句...

DMS调度Spark

作业配置-根据您选择的 任务类型,在该区域编写JSON或SQL语句。配置Batch和SQL类型作业的具体操作,请参见 Spark离线应用开发 和 Spark SQL应用开发。完成上述配置后,单击 保存。单击 试运行、指定时间运行 或 指定时间范围运行。如果执行...

配置AnalyticDB MySQL Spark节点

作业配置-根据您选择的 任务类型,在该区域编写JSON或SQL语句。配置Batch和SQL类型作业的具体操作,请参见 Spark离线应用开发 和 Spark SQL应用开发。完成上述配置后,单击 保存。单击 试运行、指定时间运行 或 指定时间范围运行。如果执行...

查询定时SQL结果数据

本文介绍如何在目标Logstore或MetricStore中查询定时SQL任务的结果数据。前提条件 已创建定时SQL任务。如果是将源Logstore中的数据通过定时SQL处理后存储到目标Logstore,请参见 从Logstore到Logstore。如果是将源Logstore中的数据通过定时...

什么是ETL

ETL支持通过可视化拖拉拽操作、Flink SQL语句配置任务,并结合DTS的高效流数据复制能力,可以实现流式数据的抽取、数据转换和加工、数据装载。在降低开发门槛和业务系统影响的同时提升效率,丰富企业实时数据处理和计算场景,赋能企业数字...

流式ETL

ETL支持通过可视化拖拉拽操作、Flink SQL语句配置任务,并结合DTS的高效流数据复制能力,可以实现流式数据的抽取、数据转换和加工、数据装载。在降低开发门槛和业务系统影响的同时提升效率,丰富企业实时数据处理和计算场景,赋能企业数字...

SQL分析概述

您可以通过编写SQL语句,配置执行查询的策略,调度产出所需的数据。功能说明 通过创建SQL分析任务,将数据存储表的数据作为查询对象,使用SQL语句配置分析任务,调度产出所需的数据至自定义存储表,为进一步挖掘数据的价值,提供分析数据的...

从Logstore到Logstore

说明 本步骤为定时SQL任务的预览操作,用于验证您所使用的查询和分析语句是否正确,执行结果是否有数据。在 统计图表 页签中,单击 另存为定时SQL。创建定时SQL任务。在 计算配置 向导中,完成如下配置,然后单击 下一步。参数 描述 任务名...

从Logstore到MetricStore

说明 本步骤为定时SQL任务的预览操作,用于验证您所使用的查询和分析语句是否正确,执行结果是否有数据。在 统计图表 页签中,单击 另存为定时SQL。创建定时SQL任务。在 计算配置 向导中,完成如下配置,然后单击 下一步。参数 描述 任务名...

从MetricStore到MetricStore

说明 本步骤为定时SQL任务的预览操作,用于验证您所使用的查询和分析语句是否正确,执行结果是否有数据。选择 更多操作>另存为定时SQL。创建定时SQL任务。在 计算配置 向导中,完成如下配置,然后单击 下一步。参数 描述 任务定时SQL...

创建EMR Presto节点

任务开发限制 开发Presto任务时,SQL语句最大不能超过 130KB。使用EMR Presto节点查询数据时,返回的查询结果最大支持 10000 条数据,并且数据总量不能超过 10M。其他 数据血缘:当前EMR Presto节点的任务不支持产出血缘关系。创建EMR ...

SQL

SQL任务类型,用于连接数据库并执行...SQL任务节点设置中,数据源类型选择为 HIVE,数据源实例 选择已添加的HIVE数据源(与上述非查询类SQL任务示例中选择的数据源保持一致),SQL类型 选择为 查询,SQL语句 内容如下。select*from hive_table

TOP Objects

TOP Objects列表详情:若需要查看某一个具体数据库对象中每个步骤的性能消耗,可以点击左边的➕号按钮,来查看数据库对象中SQL语句级别的详细性能消耗。详细参数说明如下。表 5.TOP Objects列表详情参数说明 参数 说明 对象名 该SQL语句...

数据存储冷热分层

次日凌晨1点后检查转冷成功后,可执行以下语句,删除该定时任务。SELECT cron.unschedule(<定时任务ID>);说明 定时任务ID为创建任务时自动生成的,可以通过查看 cron.job 表的 jobid 字段查看。分区表按子分区转冷 语法 SELECT pg_tiered_...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
云原生数据仓库AnalyticDB MySQL版 云数据库HBase版 实时计算 Flink版 云备份 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用