参数配置(VVR 11及以上版本)

关于VVR 11及以上版本的With参数说明。

版本参数移除说明

为优化系统架构、提升维护效率,对VVR 8及以下版本中的部分历史参数进行了调整与移除。您可以根据下方不同的列表,查询已经移除的历史版本参数与相应的替代方案。

已移除参数

原有参数

参数说明

替代方案/移除说明

jdbcRetrySleepInitMs

每次重试的固定等待时间。

使用递增的等待时间。retry-sleep-step-ms

jdbcMetaAutoRefreshFactor

如果缓存的剩余时间小于触发时间,则系统会自动刷新缓存。

配置缓存时间参数meta-cache-ttl-ms即可,无需配置此参数。

type-mapping.timestamp-converting.legacy

FlinkHologres之间是否进行时间类型的相互转换。

支持TIMESTAMP_LTZ类型时为兼容历史表现引入的参数,当前无需使用。

property-version

Connector参数版本。

已优化常用参数默认值,该参数被移除。

field_delimiter

导出数据时,不同行之间使用的分隔符。

已优化读取数据方式,该参数移除。

jdbcBinlogSlotName

JDBC模式的binlog源表的Slot名称。

已优化读取数据方式,该参数移除。

binlogMaxRetryTimes

读取Binlog数据出错后的重试次数。

可以使用retry-count参数进行配置。

cdcMode

是否采用CDC模式读取Binlog数据。

默认采用CDC模式读取,该参数移除。非CDC模式可以使用source.binlog.change-log-mode参数配置。

upsertSource

源表是否使用upsert类型的Changelog。

使用source.binlog.change-log-mode参数配置。

bulkload

是否采用bulkload写入。

使用sink.write-mode参数配置。

useRpcMode

是否通过RPC方式使用Hologres连接器。

推荐使用jdbc连接,配置sink.deduplication.enabled参数选择是否去重。

partitionrouter

是否写入分区表。

已默认支持写入分区表,该参数移除。

ignoredelete

是否忽略撤回消息。

配置sink.delete-strategy参数。撤回消息的处理策略。

sdkMode

SDK模式。

已优化此参数,请根据表类型参考source.binlog.read-modesink.write-mode参数进行配置。

jdbcReadBatchQueueSize

维表点查请求缓冲队列大小。

当点查性能不理想时,建议配置connection.pool.size参数。

jdbcReadRetryCount

维表点查超时时的重试次数。

已统一归并通用重试机制配置项retry-count参数。

jdbcScanTransactionSessionTimeoutSeconds

扫描操作所在事务的超时时间。

已统一归并通用扫描超时配置项source.scan.timeout-seconds参数。

更名参数

原有参数(VVR 8)

VVR 11

参数说明

jdbcRetryCount

retry-count

当连接故障时,写入和查询的重试次数。

jdbcRetrySleepStepMs

retry-sleep-step-ms

每次重试的累加等待时间。

jdbcConnectionMaxIdleMs

connection.max-idle-ms

JDBC连接的空闲时间。

jdbcMetaCacheTTL

meta-cache-ttl-ms

本地缓存TableSchema信息的过期时间。

binlog

source.binlog

是否消费Binlog数据。

sdkMode

source.binlog.read-mode

读取模式

binlogRetryIntervalMs

source.binlog.request-timeout-ms

读取Binlog数据出错后的重试时间间隔。

binlogBatchReadSize

source.binlog.batch-size

批量读取Binlog的数据行数。

binlogStartupMode

source.binlog.startup-mode

Binlog数据消费模式。

jdbcScanFetchSize

source.scan.fetch-size

扫描时攒批大小。

jdbcScanTimeoutSeconds

source.scan.timeout-seconds

扫描操作超时时间。

enable_filter_push_down

source.scan.filter-push-down.enabled

全量读取阶段是否进行filter下推。

partition-binlog.mode

source.binlog.partition-binlog-mode

消费分区表Binlog模式。

partition-binlog-lateness-timeout-minutes

source.binlog.partition-binlog-lateness-timeout-minutes

DYNAMIC模式下消费分区表,允许延迟的最大超时时间。

partition-values-to-read

source.binlog.partition-values-to-read

STATIC模式下消费分区表,指定所需消费的分区,分区值之间使用','进行分隔。

sdkMode

sink.write-mode

写入模式。

mutatetype

sink.on-conflict-action

主键冲突处理策略。

createparttable

sink.create-missing-partition

当写入分区表时,是否根据分区值自动创建不存在的分区表。

jdbcWriteBatchSize

sink.insert.batch-size

Hologres Sink节点数据攒批条数(不是来一条数据处理一条,而是攒一批再处理)的最大值。

jdbcWriteBatchByteSize

sink.insert.batch-byte-size

Hologres Sink节点数据攒批字节数(不是来一条数据处理一条,而是攒一批再处理)的最大值。

jdbcWriteFlushInterval

sink.insert.flush-interval-ms

Hologres Sink节点数据攒批写入Hologres的最长等待时间。

ignoreNullWhenUpdate

sink.ignore-null-when-update.enabled

mutatetype='insertOrUpdate'时,是否忽略更新写入数据中的Null值。

jdbcEnableDefaultForNotNullColumn

sink.default-for-not-null-column.enabled

如果将Null值写入Hologres表中Not Null且无默认值的字段,是否允许连接器帮助填充一个默认值。

remove-u0000-in-text.enabled

sink.remove-u0000-in-text.enabled

如果写入时字符串类型包含\u0000非法字符,是否允许连接器帮助去除。

partial-insert.enabled

sink.partial-insert.enabled

是否只插入INSERT语句中定义的字段。

deduplication.enabled

sink.deduplication.enabled

写入攒批过程中,是否进行去重。

check-and-put.column

sink.insert.check-and-put.column

启用条件更新能力,并指定检查的字段名。

check-and-put.operator

sink.insert.check-and-put.operator

条件更新操作的比较操作符。

check-and-put.null-as

sink.insert.check-and-put.null-as

当条件更新时,如果旧数据为null,则将该null值视为此参数配置的有效值。

aggressive.enabled

sink.aggressive-flush.enabled

是否启用激进提交模式。

connectionSize

connection.pool.size

单个Flink维表任务所创建的JDBC连接池大小。

connectionPoolName

connection.pool.name

连接池名称。同一个TaskManager中,配置相同名称的连接池的表可以共享连接池。

jdbcReadBatchSize

lookup.read.batch-size

点查维表时,攒批处理的最大条数。

jdbcReadTimeoutMs

lookup.read.timeout-ms

维表点查的超时时间。

WITH参数

通用

参数

说明

数据类型

是否必填

默认值

备注

connector

表类型。

String

固定值为hologres

dbname

数据库名称。

String

可以通过在dbname参数后添加特定的后缀来指定连接某个计算组。例如某张维表希望连接特定的计算组read_warehouse,可以通过'dbname' = 'db_test@read_warehouse' 方式指定,详情请参见连接计算组

tablename

表名称。

String

如果Schema不为Public时,则tablename需要填写为schema.tableName

username

  • 自定义账号的用户名,格式为BASIC$<user_name>

  • 阿里云账号或RAM用户的AccessKey ID。

String

重要

为了避免您的AK信息泄露,建议您使用变量的方式填写AccessKey取值,详情请参见项目变量

password

  • 自定义账号的密码。

  • 阿里云账号或RAM用户的AccessKey Secret。

String

endpoint

Hologres服务地址。

String

详情请参见访问域名

connection.pool.size

单个Flink 表在任务中所创建的JDBC连接池大小。

Integer

5

如果作业性能不足,建议您增加连接池大小。连接池大小和数据吞吐成正比。此参数仅对维表和结果表生效。

connection.pool.name

连接池名称。同一个TaskManager中,配置相同名称的连接池的表可以共享连接池。

String

'default'

默认取值为'default'。如果多个表设置相同的连接池,则以其中最大的 connection.pool.size参数配置为准。

您可以按需配置此参数,例如作业中有维表A,B以及结果表C,D,E五张hologres表,可以A表和B表使用pool1,C表和D表使用pool2,E表流量较大,单独使用pool3。

说明
  • connection.pool.name 相同以共享连接池的前提是 endpoint、database 等连接信息都相同。

  • 作业中表数量较多时连接数可能相对不足影响性能,这种情况下推荐为不同的表设置不同的connection.pool.name。

connection.fixed.enabled

是否使用轻量级连接模式

Boolean

Hologres 的连接数是有上限的,在 Hologres2.1 版本起,实时写入支持使用不受连接数限制的轻量级连接。

说明
  • 此参数的默认值受Hologres实例版本的影响,对维表和结果表,连接器会在hologres版本大于3.0.28时,自动选择轻量级连接模式。

  • 维表轻量级连接不支持查询JSONBRoaringBitmap类型。

connection.max-idle-ms

JDBC连接的空闲时间。

Long

60000

超过这个空闲时间,连接就会断开释放掉,下次使用时自动创建。单位为毫秒。

connection.ssl.mode

是否启用SSL(Secure Sockets Layer)传输加密,以及启用采用何种模式。

String

disable

  • disable(默认值):不启用传输加密。

  • require:启用SSL,只对数据链路加密。

  • verify-ca:启用SSL,加密数据链路,同时使用CA证书验证Hologres服务端的真实性。

  • verify-full:启用SSL,加密数据链路,使用CA证书验证Hologres服务端的真实性,同时比对证书内的CNDNS与连接时配置的Hologres连接地址是否一致。

说明
  • Hologres2.1版本起新增支持verify-caverify-full模式。详见传输加密

  • 当配置为verify-ca或者verify-full时,需要同时配置connection.ssl.root-cert.location参数。

connection.ssl.root-cert.location

当传输加密模式需要证书时,配置证书的路径。

String

connection.ssl.mode配置为verify-ca或者verify-full时,需要同时配置CA证书的路径。证书可以使用实时计算控制台的文件管理功能上传至平台,上传后文件存放在/flink/usrlib目录下。例如,需要使用的CA证书文件名为certificate.crt,则上传后参数取值应该为 '/flink/usrlib/certificate.crt'

说明

CA证书获取方式见传输加密-下载CA证书

retry-count

当连接故障时,写入和查询的重试次数。

Integer

10

无。

retry-sleep-step-ms

每次重试时递增的等待时间。

Long

5000

单位为毫秒。例如,默认值 5000(即 5 秒)时,第一次重试等待 5 秒,第二次等待 10 秒,依此类推。

meta-cache-ttl-ms

本地缓存TableSchema信息的过期时间。

Long

600000

单位为毫秒。

源表独有

参数

说明

数据类型

是否必填

默认值

备注

source.binlog

是否消费Binlog数据。

Boolean

true

  • true(默认值):消费Binlog数据。

  • false:不消费Binlog数据。

source.binlog.read-mode

读取模式。

ENUM

AUTO

  • AUTO(默认值):根据实例版本自动选择最佳模式

  • HOLOHUB:使用holohub模式消费binlog。

  • JDBC:使用jdbc模式消费binlog。

说明

AUTO 模式的自动选择逻辑如下:

  • Hologres实例2.1.27及以上版本,选择JDBC模式,同时默认启用轻量级连接,即connection.fixed.enabled 参数默认设置为 true。

  • Hologres实例2.1.0~2.1.26版本,选择JDBC模式。

  • Hologres实例2.0 及以下版本,选择HOLOHUB模式。

source.binlog.change-log-mode

CDC 源表支持哪些ChangeLog 。

ENUM

UPSERT

  • ALL:支持所有 ChangeLog 类型,包括INSERT、DELETE、UPDATE_BEFORE、UPDATE_AFTER。

  • UPSERT(默认值):仅支持Upsert类型的ChangeLog,包括INSERT、DELETEUPDATE_AFTER。

  • ALL_AS_APPEND_ONLY:所有 ChangeLog 类型都当作 INSERT 处理。

说明

如果下游包含回撤算子(例如使用ROW_NUMBER OVER WINDOW去重),则需要设置upsertSourcetrue,此时源表会以Upsert方式从Hologres中读取数据。

source.binlog.startup-mode

Binlog数据消费模式。

ENUM

INITIAL

  • INITIAL:先全量消费数据,再读取Binlog开始增量消费。

  • EARLIEST_OFFSET(默认值):从最早的Binlog开始消费。

  • TIMESTAMP:从设置的startTime开始消费Binlog。

说明

如果设置了startTime或者在启动界面选择了启动时间,则binlogStartupMode强制使用timestamp模式,其他消费模式不生效,即startTime参数优先级更高。

source.binlog.batch-size

批量读取Binlog的数据行数。

Integer

512

无。

source.binlog.request-timeout-ms

读取Binlog数据超时等待时间。

Long

300000

单位为毫秒。

说明

如果发生timeout,可能的原因是作业下游算子处理源表数据太慢导致反压。

source.binlog.partition-binlog-mode

消费分区表Binlog模式。

Enum

DISABLE

  • DISABLE(默认值):源表是非分区表,如果指定的Hologres表为分区表,将抛出异常。

  • DYNAMIC:持续消费分区表的最新分区。分区表必须开启动态分区管理,DYNAMIC模式会按照从旧到新的顺序消费各个分区。当消费到次新分区时,会在新的单位时间到来时,开启最新分区的消费。

  • STATIC:消费分区表的固定分区,可同时消费多个分区。分区在消费过程中无法新增或移除。默认消费此父表的所有分区。

source.binlog.partition-binlog-lateness-timeout-minutes

DYNAMIC模式下消费分区表,允许延迟的最大超时时间。

Boolean

60

  • 单位为分钟,DYNAMIC模式会在新的单位时间到来时开启当前时间对应的最新分区的消费,但不会立刻关闭前一个分区,而是会持续监听以保证可以读取到上一个分区的延迟数据。

例如:如果动态分区以DAY为单位,分区是20240920,允许数据最大延迟是1小时,对于这个分区,其消费会在2024-09-21 01:00:00关闭,而不是在2024-09-21 00:00:00停止消费。

  • lateness-timeout时间不允许超过分区的单位时间。

如果按天分区,其最大值为24 * 60 = 1440(min),DYNAMIC模式大多数时间只会同时消费一张表,在延迟时间内可能同时消费两个分区。

source.binlog.partition-values-to-read

STATIC模式下消费分区表,指定所需消费的分区,分区值之间使用','进行分隔。

String

  • 不配置此参数时,STATIC模式会消费指定父表的所有分区,指定时则仅消费被指定的分区。

  • 此参数仅需要填写分区值,不需要完整的分区名称,多个分区值使用,分割。目前不支持通过正则表达式配置。

startTime

启动位点的时间。

String

格式为yyyy-MM-dd hh:mm:ss。如果没有设置该参数,且作业没有从State恢复,则从最早的Binlog开始消费Hologres数据。

source.scan.fetch-size

批量读取时攒批大小。

Integer

512

无。

source.scan.timeout-seconds

批量读取时超时时间。

Integer

60

单位为秒。

source.scan.filter-push-down.enabled

全量读取阶段是否进行filter下推。

Boolean

false

  • false(默认值):不进行filter下推。

  • true:读取全量数据时,将支持的过滤条件下推到Hologres执行。包括非Binlog Source全量读取以及Binlog Source使用全增量一体化消费模式时的全量阶段。

结果表独有

参数

说明

数据类型

是否必填

默认值

备注

sink.write-mode

写入模式。

ENUM

INSERT

  • INSERT:默认值,表示使用jdbc,通过 INSERT 方式进行写入。

  • COPY_STREAM:是否使用流式的 fixed copy方式写入。fixed copy是一种高性能的流式写入方式,适用于对吞吐和延迟要求高的场景。但此模式暂不支持delete数据,也不支持写入分区父表,不支持ignoreNullWhenUpdate参数。

  • COPY_BULK_LOAD:表示使用批量的COPY进行写入,bulkload写入目前仅适用于无主键表或者主键保证不重复的有主键表(主键重复会抛出异常),相比fixed copy,写入使用更少的Hologres资源。

sink.on-conflict-action

主键冲突处理策略。

ENUM

INSERT_OR_UPDATE

  • INSERT_OR_IGNORE:保留首次出现的数据,忽略后续所有数据。

  • INSERT_OR_REPLACE:后出现的数据整行替换已有数据。

  • INSERT_OR_UPDATE(默认值):更新已有数据的部分列。

    例如一张表有a、b、cd四个字段,a是主键,若结果表字段仅提供ab两个字段,在主键重复的情况下,系统只会更新b字段,cd保持不变。

sink.create-missing-partition

当写入分区表时,是否根据分区值自动创建不存在的分区表。

Boolean

false

  • 使用Date类型做分区键时,如果开启了动态分区管理,自动创建的分区表名格式默认与动态分区一致。

  • 请确保分区值不会出现脏数据,否则会创建错误的分区表导致Failover,建议慎用该参数。

  • sink.write-mode不是INSERT时,不支持写入分区父表。

sink.delete-strategy

撤回消息的处理策略。

String

  • IGNORE_DELETE:忽略Update BeforeDelete消息。适用于仅需插入或更新数据,而无需删除数据的场景。

  • NON_PK_FIELD_TO_NULL:忽略Update Before消息,并将Delete消息执行为将非主键字段更新为NULL。适用于希望在局部更新操作中执行删除操作而不影响其他列的场景。

  • DELETE_ROW_ON_PK:忽略Update Before消息,并将Delete消息执行为根据主键删除整行。适用于在局部更新过程中,希望执行删除整行操作,从而影响其他列的场景。

  • CHANGELOG_STANDARD:Flink框架按照 Flink SQL Changelog的工作原理运行,不忽略删除操作,并通过先删除数据再插入的方式执行更新操作,以确保数据准确性。适用于不涉及局部更新的场景

说明

启用NON_PK_FIELD_TO_NULL选项可能会导致记录中只有主键,其他所有列都为null。

sink.ignore-null-when-update.enabled

sink.on-conflict-action='INSERT_OR_UPDATE'时,是否忽略更新写入数据中的Null值。

Boolean

false

  • false(默认值):将Null值写到Hologres结果表里。

  • true:忽略更新写入数据中的Null值。

说明

sink.write-mode设置为INSERT时支持此参数。

sink.default-for-not-null-column.enabled

如果将Null值写入Hologres表中Not Null且无默认值的字段,是否允许连接器帮助填充一个默认值。

Boolean

true

  • true(默认值):允许连接器填充默认值并写入,规则如下。

    • 如果字段是String类型,则默认写为空("")。

    • 如果字段是Number类型,则默认写为0。

    • 如果是Date、timestamptimestamptz时间类型字段,则默认写为1970-01-01 00:00:00

  • false:不填充默认值,写NullNot Null字段时,会抛出异常。

说明

sink.write-mode设置为INSERT时支持此参数。

sink.remove-u0000-in-text.enabled

如果写入时字符串类型包含\u0000非法字符,是否允许连接器帮助去除。

Boolean

true

  • false:连接器不对数据进行操作,但碰到脏数据时写入可能抛出如下异常,ERROR: invalid byte sequence for encoding "UTF8": 0x00

    此时需要在源表提前处理脏数据,或者在SQL中定义脏数据处理逻辑。

  • true(默认值):连接器会帮助去除字符串类型中的\u0000,防止写入抛出异常。

sink.partial-insert.enabled

是否只插入INSERT语句中定义的字段。

Boolean

false

  • false(默认值):无论INSERT语句中声明了哪些字段,都会更新结果表DDL中定义的所有字段,对于未在INSERT语句中声明的字段,会被更新为null。

  • true:将INSERT语句中定义的字段下推给连接器,从而可以只对声明的字段进行更新或插入。

说明
  • 此参数仅在sink.on-conflict-action参数配置为INSERT_OR_UPDATE时生效。

sink.deduplication.enabled

写入攒批过程中,是否进行去重。

Boolean

true

  • true(默认值):如果一批数据中有主键相同的数据,默认进行去重,只保留最后一条到达的数据。以两个字段,其中第一个字段为主键的数据举例:

    • INSERT (1,'a')INSERT (1,'b')两条记录先后到达,去重之后只保留后到达的(1,'b')写入Hologres结果表中。

    • Hologres结果表中已经存在记录(1,'a'),此时DELETE (1,'a')INSERT (1,'b')两条记录先后到达,只保留后到达的(1,'b')写入hologres中,表现为直接更新,而不是先删除再插入。

  • false:在攒批过程中不进行去重,如果发现新到的数据和目前攒批的数据中存在主键相同的情况,先将攒批数据写入,写入完成之后再继续写入新到的数据。

说明
  • sink.write-mode设置为INSERT时支持此参数。

  • 不允许攒批去重时,极端情况下(例如所有数据的主键都相同)写入会退化为不攒批的单条写入,对性能有一定影响。

sink.aggressive-flush.enabled

是否启用激进提交模式。

Boolean

false

设置为true时,即便攒批未达到预期条数,连接在空闲时将会被强制提交。在流量较小时,可以有效减少数据写入的延时。

说明

sink.write-mode配置为 INSERTCOPY_STREAM时支持该参数。

sink.insert.check-and-put.column

启用条件更新能力,并指定检查的字段名。

String

参数取值必须设置为Hologres表存在的字段名。

重要
  • sink.write-mode配置为 INSERT 时支持该参数。

  • 结果表必须有主键,sink.on-conflict-action参数值必须是INSERT_OR_UPDATE或者INSERT_OR_REPLACE

  • 由于需要反查,建议结果表创建为行存表或者行列混存表。

  • 在数据重复较多的情况下,check-and-put操作会退化为单条写入,这将导致写入性能的降低。

sink.insert.check-and-put.operator

条件更新操作的比较操作符。

String

GREATER

比较新recordcheck字段与表中旧值,符合条件判断操作符时进行更新。目前支持配置为GREATER、GREATER_OR_EQUAL、EQUAL、NOT_EQUAL、LESS、LESS_OR_EQUAL、IS_NULL、IS_NOT_NULL。

sink.insert.check-and-put.null-as

当条件更新时,如果旧数据为null,则将该null值视为此参数配置的有效值。

String

由于在PostgreSQL中,任何值与NULL进行比较的结果均为FALSE,因此当表中的原有数据为NULL时,进行更新操作时需要设置一个NULL-AS作为参数,相当于SQL中的COALESCE函数。

sink.insert.batch-size

INSERT模式,Hologres Sink节点数据攒批条数(不是来一条数据处理一条,而是攒一批再处理)的最大值。

Integer

512

sink.insert.batch-sizesink.insert.batch-byte-sizesink.insert.flush-interval-ms三者之间为或的关系。如果同时设置了这三个参数,则满足其中一个,就进行写入结果数据。

sink.insert.batch-byte-size

INSERT模式,Hologres Sink节点数据攒批字节数(不是来一条数据处理一条,而是攒一批再处理)的最大值。

Long

2*1024*1024字节,即2 MB

sink.insert.flush-interval-ms

INSERT模式,Hologres Sink节点数据攒批写入Hologres的最长等待时间。

Long

10000

维表独有

参数

说明

数据类型

是否必填

默认值

备注

lookup.read.batch-size

点查Hologres维表时,攒批处理的最大条数。

Integer

256

无。

lookup.read.timeout-ms

维表点查的超时时间。

Long

默认值为0,表示不会超时

无。

lookup.read.column-table.enabled

是否使用列存表做维表

Boolean

false

列存表做维表时性能较差,因此维表默认仅支持行存表或者行列混存表。如果必须使用列存表做维表则需要设置此参数。

lookup.insert-if-not-exists

是否插入不存在的数据

Boolean

false

如果点查发现维表中不存在当前数据,则插入当前数据。

cache

缓存策略。

String

None

Hologres仅支持NoneLRU两种缓存策略。

cacheSize

缓存大小。

Integer

10000

选择LRU缓存策略后,可以设置缓存大小。单位为条。

cacheTTLMs

缓存更新时间间隔。

Long

见备注列。

单位为毫秒。cacheTTLMs默认值和cache的配置有关:

  • 如果cache配置为LRU,则cacheTTLMs为缓存超时时间。默认不过期。

  • 如果cache配置为None,则cacheTTLMs可以不配置,表示缓存不超时。

cacheEmpty

是否缓存join结果为空的数据。

Boolean

true

  • true(默认值):缓存join结果为空的数据。

  • false:不缓存join结果为空的数据。

    但当join语句中AND前面条件符合而后面条件不符合时,依然会缓存join结果为空的数据。代码示例如下。

    LEFT JOIN latest_emergency FOR SYSTEM_TIME AS OF PROCTIME() AS t2
     ON t1.alarm_id = t2.alarm_id -- 如果发现是动态告警,则匹配时加入动态告警id,否则无需考虑动态告警id字段。
     AND CASE
     WHEN alarm_type = 2 THEN t1.dynamic_id = t2.dynamic_alarm_id
     ELSE true
     END
重要

请根据实际业务场景决定是否启用此开关。若您希望在作业运行时关联新插入维表中的记录,请关闭此选项,或是将cacheTTLMs设置得足够短,以免空值记录被缓存,导致后续维表关联失败。

async

是否异步返回数据。

Boolean

false

  • true:表示异步返回数据。

  • false(默认值):表示不进行异步返回数据。

说明

异步返回数据是无序的。