快速入门

分隔符BLOB数据同步时,可以指定16进制分隔符来决定是否对BLOB数据分割后再同步MaxCompute,比如 0A 表示(换行符)Base64编码DataHub BLOB默认存储二进制数据,而MaxCompute对应的同步列为STRING类型,因此管控台创建同步任务时,默认采用...

创建同步MaxCompute

分隔符BLOB数据同步时,可以指定16进制分隔符来决定是否对BLOB数据分割后再同步MaxCompute,比如 0A 表示(换行符)。Base64编码DataHub BLOB默认存储二进制数据,而MaxCompute对应的同步列为STRING类型,因此管控台创建同步任务时,默认...

RDS MySQL迁移至Tair/Redis

当 缓存数据映射模式 选择为 库-表-主键的KV模型 时,还要设置 value数据分割方式。说明 Schema名称和表名称不支持映射功能。如需按库或表级别选择迁移的SQL操作,请在 已选择对象 中右击待迁移对象,并在弹出的对话框中选择所需迁移的SQL...

RDS MySQL同步至Tair/Redis

当 缓存数据映射模式 选择为 库-表-主键的KV模型 时,还要设置 value数据分割方式。说明 Schema名称和表名称不支持映射功能。如需按库或表级别选择同步的SQL操作,请在 已选择对象 中右击待同步对象,并在弹出的对话框中选择所需同步的SQL...

图像语义分割

图像语义分割模板可以将图片内容进行分割,并配置题目,对分割内容进行打标。数据格式示例 说明 CSV 及 XLSX 格式中每一列数据;Manifest 格式中 data 字段的下一级字段均对应一个数据集字段,字段名 可自定义,在配置数据集字段名时选择...

大量数据导出方案

获取数据写法与TableTunnel一样。TunnelRecordReader reader=session.openRecordReader(0,count);Record record;while((record=reader.read())!null){ for(int col=0;col().getColumns().size();col){/wc_in表字段均为STRING,这里直接...

基本概念

分片(Shard)根据分布键,将表数据水平分割后得到的子表,称为分片,英文名称为Shard。这些分片分散在若干个存储节点组(Worker Group)上,每个存储节点组维护一部分数据,有利于提高系统的可伸缩性和性能。每个分片都由一个独立的Raft组...

Quick BI的参数SQL应该怎样写

概述 本文通过介绍参数SQL的写法,在...应用参数写法数据集,查询条件可以同时关联其他数据集的图表,应用占位符写法数据集,查询条件只能关联占位符字段,无法关联其他数据集的字段,同时关联不同数据*出现如下异常信息 适用于 Quick BI

内容分割

本文介绍如何使用数据清洗功能中的内容分割模板处理消息数据。背景信息 数据清洗功能提供常见的消息处理模板,包括内容分割、动态路由、内容富化和内容映射等。您可以直接利用模板处理消息,也可以根据业务情况在模板基础上修改代码。消息...

图文解释

数据集字段 在数据集字段中选择使用SAM分割的embedding字段,可以配置该字段来提升页面SAM分割工具的加载速度。如果不配置,单击右上角的删除。提示 默认提示区域无需修改。点击链接跳转 无需配置,不生效。文本高亮 无需配置,不生效。...

其他问题

Java 应用创建数据访问代理连接失败 检查以下几个要点:白名单:是否在 ODP 上将应用服务器 IP 加入了白名单,以及在物理数据库上将 ODP 实例 IP 加入了白名单。MySQL 客户端:如果直接使用命令行方式可以连接 ODP,说明网络和配置都是正确...

Tunnel命令常见问题

使用Tunnel Upload命令上传数据时,默认用逗号进行列分割,但是数据中有逗号,这种情况如何分割?使用Tunnel Upload命令上传数据时,如果数据使用空格作为列分隔符,或需要对数据做正则表达式过滤时,如何解决?Tunnel Upload完成后,存在...

FTP数据

FTP数据源为您提供读取和写入FTP双向通道的功能,本文为您介绍DataWorks的FTP数据同步的能力支持情况。使用限制 FTP Reader实现了从远程FTP文件读取数据并转为数据同步协议的功能,远程FTP文件本身是无结构化数据存储。对于数据同步而言,...

导入结构和数据

单表导入时支持导入 CSV 文件,CSV 文件是.csv 或.txt 结尾的支持自定义分割符的数据文件。注意事项 Web 版 ODC 对导入上传的文件大小有限制,最大支持导入 2GB(压缩后)的文件,超出部分无法上传。如需导入大量数据,请使用导数工具 ...

整库离线同步至OSS

text格式是用列分隔符简单分割待写数据,对于待写数据包括列分隔符情况下不做转义。列分隔符 将源端每列数据写入OSS时所使用的列分隔符,默认值为(,)。行分隔符 将源端每行数据写入OSS时所使用的行分隔符,默认值为()。编码 定义文件...

JSON索引(2.0版)

背景信息 大数据时代结构化数据检索已经逐渐有了多元化的、丰富的解决方案。但是,事实上大多数的大数据都是半结构化的,并且半结构化数据数据量仍旧急剧增长。理解和分析半结构化数据的难度比结构化数据大很多,急需成熟的解决方案来...

Tunnel命令

当您需要在本地环境与MaxCompute之间传输大量的数据时,MaxCompute提供Tunnel功能支持上传下载数据,使用Tunnel命令可以实现批量或增量数据的高效上传、下载,以提高数据传输效率和可靠性。本文为您介绍Tunnel上传下载命令的详细说明。...

Tunnel命令

当您需要在本地环境与MaxCompute之间传输大量的数据时,MaxCompute提供Tunnel功能支持上传下载数据,使用Tunnel命令可以实现批量或增量数据的高效上传、下载,以提高数据传输效率和可靠性。本文为您介绍Tunnel上传下载命令的详细说明。...

创建同步ElasticSearch

对于ES6,DataHub同步数据时,将会以用户选择的列的列名作为一条数据的type,如果选择多列,则多列的列名会以“|”分割作为一条数据的type,并且ES6支持以任意名称作为type。例如:DataHub Schema:f1 string,f2 string,f3 string,f4 string...

分析数据

④ 千位分割 将单元格数据的千位以逗号形式分割,例如 1,005。⑤ 货币 将单元格的数据类型设置为货币类型,例如人民币、美元、英镑、欧元和法郎等。行列 序号 功能 描述 ① 插入行 在电子表格中添加新的单元行。② 插入列 在电子表格中添加...

设置预分区

数据库HBase的预分区功能可以帮助您合理的设计Rowkey,从而避免出现数据热点现象。本文介绍如何为HBase表设置预分区。设置方法 为HBase表test设置预分区,创建表格的语句如下示例,示例中字段的描述如下表。create'test',{NAME=>'f1',...

轮播列表柱状图

过滤器 打开 过滤器,选择已创建的数据过滤器或新建数据过滤器,并配置数据过滤器脚本,实现数据的筛选功能。详情请参见 管理数据过滤器。数据响应结果 实时展示了组件所使用的数据。当组件数据源发生变化时,数据响应结果会对应展示最新的...

轮播列表柱状图

数据源 单击 配置数据源,可在 设置数据源 面板中修改数据源类型和数据查询代码、预览数据源返回结果以及查看数据响应结果,详情请参见 配置资产数据数据过滤器 数据过滤器提供数据结构转换、筛选和一些简单的计算功能。单击 添加过滤器...

导入中特殊符号处理

OSS高速并行导入 在数据导入过程中,一般是将文件的每行作为一个元组,通过在每行中规定分隔符来分割每一列的数据。下文将介绍分隔符的使用方法和约束,以及每列中遇到特殊符号的处理方法。分隔符 在创建OSS外部表语法中,您可以通过在...

使用OSS外表高速导出数据到OSS

云原生数据仓库AnalyticDB PostgreSQL版 支持通过OSS外部表(即gpossext功能),将数据并行导出到阿里云对象存储OSS,并支持通过GZIP进行OSS外部表文件压缩,大量节省存储空间及成本。功能介绍 目前gpossext支持读写TEXT、CSV格式的文件...

使用OSS外表高速导入OSS数据

云原生数据仓库AnalyticDB PostgreSQL版 支持通过OSS外部表(gpossext功能),将数据并行从阿里云对象存储OSS导入到 AnalyticDB PostgreSQL。功能介绍 目前gpossext支持读写TEXT、CSV格式的文件以及GZIP压缩格式的TEXT、CSV文件。gpossext...

Serverless Presto概述

每种数据源创建库、表的选项稍有不同,可以阅读 连接数据源 下面的文档来查看建每种数据源库表的具体写法。DLA的Presto Clusters集群是兼容社区Presto的,关于函数的具体定义可以参考社区文档。Presto Clusters集群下面可以接入各种数据源...

上传数据

添加完成数据文件后,在跳转后的添加数据对话框,选择数据的分组、输入数据集的名称、选择数据的类型和数据的服务地址,单击对话框右下角的 创建数据集 即可完成三维瓦片数据的添加。说明 当数据量较大时解析时间会比较长,您可以先关闭弹...

上传数据

添加完成数据文件后,在跳转后的添加数据对话框,选择数据的分组、输入数据集的名称、选择数据的类型和数据的服务地址,单击对话框右下角的 创建数据集 即可完成三维瓦片数据的添加。说明 当数据量较大时解析时间会比较长,您可以先关闭弹...

Amazon S3数据

Simple Storage Service(简称S3)是一种专为从任意位置存储和检索任意数量的数据而构建的对象存储,DataWorks数据集成支持使用Amazon S3 Reader插件从S3数据库读取数据,本文为您介绍DataWorks的Amazon S3数据读取能力。支持的Amazon S3...

交叉透视表

数据源 单击 配置数据源,可在 设置数据源 面板中修改数据源类型和数据查询代码、预览数据源返回结果以及查看数据响应结果,详情请参见 配置资产数据数据过滤器 数据过滤器提供数据结构转换、筛选和一些简单的计算功能。单击 添加过滤器...

交叉透视表

图表样式 交叉透视表是表格组件的一种,支持数据内容的自定义展示,能够将数据信息以表格的形式清晰地展示在可视化应用上。样式面板 搜索配置:单击 样式 面板右上角的搜索配置项图标,可在搜索配置面板中输入您需要搜索的配置项名称,快速...

区域图(v4.0以下版本)

数据源 单击 配置数据源,可在 设置数据源 面板中修改数据源类型和数据查询代码、预览数据源返回结果以及查看数据响应结果,详情请参见 配置资产数据数据过滤器 数据过滤器提供数据结构转换、筛选和一些简单的计算功能。单击 添加过滤器...

创建元数据

在基于HBase、Elasticsearch或MongoDB数据源创建服务单元之前,需要先创建对应数据源中数据表的元数据,以实现通过元数据确定数据源中数据表的结构。后续您可以通过该元数据读取到对应数据源的数据。本文为您介绍如何创建HBase、...

升级内核小版本

MutliPoint写法不一致:升级前:MULTIPOINT(1 1,-1 1)升级后:MULTIPOINT((1 1),(-1 1))3.1.x 使用如下函数时,可能导致数据库崩溃 ST_ClusterKMeans MutliPoint写法将与升级前不一致 升级前:MULTIPOINT(1 1,-1 1)升级后:MULTIPOINT((1 1...

创建HDFS数据

通过创建HDFS数据源能够实现Dataphin读取HDFS的业务数据或向HDFS写入数据。本文为您介绍如何创建HDFS数据源。背景信息 HDFS集群由NameNode和DataNode构成master-worker(主从)模式:NameNode用于构建命名空间,管理文件的元数据等。...

备份恢复概览

基线数据代表了已整合并持久化到硬盘的全部数据总和,它被智能地分割为多个分片,并制作成多个副本,均衡且分散地储存在各 OBServer 的数据文件中,这一过程即我们所称的“数据备份”。增量数据则涵盖了自最新合并时间点以来的所有实时更新...

轨迹层

数据分级:根据数据中的 value 字段值大小划分(自然分割)成2~7个数据大小级别,解决 value 值相差太大导致的渲染问题。轨迹粗细(从细到粗):单击右侧的 或 图标,添加或删除一个类型。单击 或 图标配置多个轨迹粗细类型的排列样式。...

散点层

数据分级:根据数据中的 value 字段值大小划分(自然分割)成2~7个数据大小级别,解决 value 值相差太大导致的渲染问题。散点贴图:散点层贴图样式,可黏贴贴图URL链接获取。散点大小(从小到大):单击右侧的 或 图标,添加或删除一个散点...

散点层

数据分级:根据数据中的value字段值大小划分(自然分割)成2~7个数据大小级别,解决value值相差太大导致的渲染问题。散点贴图:散点层贴图样式,可黏贴贴图URL链接获取。散点大小(从小到大):单击右侧的 或 图标,添加或删除一个散点大小...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
数据传输服务 云数据库 Redis 版 云数据库 RDS 数据库备份 DBS 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用