实例类型及使用模式

函数计算的CPU实例和GPU实例均支持按量模式和预留模式。按量模式根据请求时长计费,可以结合并发度设置提高实例的资源利用率。预留模式则是从实例启动完成开始计费,到实例释放为止,可用于解决冷启动问题。本文为您介绍两类实例的实例模式、计费方式及实例规格。

实例类型

  • CPU实例:函数计算的基本实例。适用于突发流量和计算密集等各种场景。

  • GPU实例:提供Turing架构的GPU实例。主要适用于音视频、AI人工智能和图像处理等场景。在不同的场景中,将不同的业务负载下沉至GPU硬件加速,从而提升业务处理效率。

    不同场景下使用GPU实例的最佳实践,请参见以下文档。

    重要
    • GPU实例仅支持通过容器镜像方式部署。

    • 使用GPU实例过程中,为了确保您的业务正常进行,请加入钉钉用户群(钉钉群号:64970014484),并提供以下信息。

      • 组织名称,例如您所在的公司名称。

      • 您的阿里云账号ID。

      • 您使用GPU实例的地域,例如华南1(深圳)。

      • 联系方式,例如您的手机号、邮箱或钉钉账号等。

实例模式

CPU实例和GPU实例均支持两种实例模式:按量模式和预留模式。两种实例模式说明如下。

按量模式

基本概念

按量模式是指函数实例的分配和释放完全由函数计算系统负责。函数计算会根据函数的调用量自动进行实例扩缩容,在调用增加时创建实例,在请求减少后销毁实例。整个过程中,通过请求自动触发实例创建。如果实例在一段时间内(一般为3~5分钟)不处理请求,会自动销毁。首次发起调用时,需要等待实例冷启动。

您的阿里云账号(主账号)在单个地域内默认的按量实例上限数为300。如果您需要提高该限制,请加入钉钉用户群(钉钉群号64970014484)申请。

计费方式

在按量模式下,函数执行时长的计量从请求执行函数开始,到请求执行完毕结束。按量模式下,同一个实例同一时间可以执行一个请求,也可以并发执行多个请求。更多信息,请参见创建Web函数

在没有函数调用请求时不分配实例,所以不会产生费用。只有发生函数调用时才会产生费用。关于具体的产品定价和计费,请参见计费概述

说明

如果您希望提高实例资源利用率,建议根据业务对资源的诉求,配置您的实例为单实例多并发。在这种方案下,当多个任务同时在一个实例上执行时,CPU或者内存将被抢占式共享,有效提高资源利用率。

单实例单并发执行时长

按量模式下,一个实例执行一个请求时,执行时长的计量是从请求到达实例开始,到请求执行完毕为止。

image

单实例多并发执行时长

按量模式下,一个实例并发执行多个请求时,执行时长的计量是从第一个请求到达实例开始,到最后一个请求执行完毕为止。并发执行请求时,可以复用资源节省费用。

image

预留模式

基本概念

预留模式是将函数实例的分配和释放交由您管理,当配置预留函数实例后,预留的函数实例将会常驻,直到您主动将其释放。函数计算会优先将函数调用请求调度至预留的函数实例,当函数请求的并发超过预留的函数实例处理能力时,超出部分的请求被转发至按量模式的实例。关于删除预留模式的实例,请参见修改或删除预留实例并发

说明

如果您希望解决冷启动问题,预留模式是最佳方案。建议您根据业务资源预算选择固定数量预留、根据波峰波谷特性选择指定时间段预留或者按照水位阈值选择自动伸缩方案。预留后,实例的平均冷启动时延将明显降低。

计费方式

  • 活跃状态实例

    通常情况下,正在处理请求的实例属于活跃状态实例,而在预留模式下,由于实例常驻,如果没有开启闲置模式,这些预留实例也属于活跃状态实例,并且这些实例的计费从实例成功创建后开始,一直到您主动将其释放为止。所以即使预留的函数实例未执行任何请求,只要没有释放函数实例,您都需要为预留的函数实例按照活跃状态的价格付费。

    image
  • 闲置状态实例

    在预留模式下,开启闲置模式后,如果实例上没有正在执行任何请求,这部分实例属于闲置状态实例。CPU实例默认开启闲置模式,GPU实例默认关闭闲置模式,您可以手动启用该模式。闲置模式下,预留实例在未处理任何请求时,函数计算会冻结其GPU资源或vCPU资源,将实例转为闲置状态,闲置状态实例的费用远远小于活跃状态实例,费用比例可参见各资源使用量的CU转换系数

    如下图所示,假设您的实例已启用闲置模式,预留模式的实例的计费从实例成功创建后开始,一直到您主动将其释放为止。当预留的函数实例未执行任何请求,实例进入闲置状态,开始处理请求直到请求结束为活跃状态,这段时间内实例使用总费用为(闲置资源使用总量 x 闲置资源使用单价)+(活跃资源使用总量 x 活跃资源使用单价)

    image

实例规格

  • CPU实例

    CPU实例包含以下实例规格,您可以根据业务需求选择不同配置的实例。

    vCPU(核)

    内存规格(MB)

    代码包大小上限(GB)

    函数执行时长上限(s)

    磁盘大小上限(GB)

    带宽能力上限(Gbps)

    0.05~16

    取值说明:必须为0.05的倍数。

    128~32768

    取值说明:必须为64的倍数。

    10

    86400

    10

    取值说明:

    • 512 MB,默认值。

    • 10 GB。

    5

    说明

    vCPU大小(单位为核)与内存大小(单位为GB)的比例必须设置在1∶1到1∶4之间。

  • GPU实例

    GPU实例包含以下实例规格,您可以根据业务需求选择不同配置的实例。

    说明

    fc.gpu.tesla.1实例规格的性能与NVIDIA T4性能基本一致。

    实例规格

    整卡显存(GB)

    整卡算力(TFLOPS)

    可选切分规格

    是否支持按量模式

    是否支持普通预留模式

    是否支持闲置预留模式

    FP16算力

    FP32算力

    vGPU显存(MB)

    vGPU算力(卡)

    vCPU(核)

    内存规格(MB)

    fc.gpu.tesla.1

    16

    65

    8

    1024~16384(对应1 GB~16 GB)

    取值说明:必须为1024 MB的倍数。

    取值为vGPU显存(GB)/16。例如,配置vGPU显存为5 GB,则vGPU最高可得5/16张卡算力。

    说明:由函数计算系统自动分配,无需手动配置。

    取值为0.05~(vGPU显存(GB)/2)。

    取值说明:必须为0.05的倍数。具体信息,请参见GPU规格配置表

    取值为128~(显存(GB)*2048)。

    取值说明:必须为64的倍数。具体信息,请参见GPU规格配置表

    Y

    Y

    Y

    fc.gpu.ada.1

    48

    119

    60

    49152(对应48 GB)

    取值说明:仅支持48 GB显存规格。

    默认分配整卡算力。

    说明:由函数计算系统自动分配,无需手动配置。

    取值为8。

    取值说明:仅支持8核vCPU规格。

    取值为65536。

    取值说明:仅支持64 GB内存规格。

    N

    Y

    Y

    函数计算GPU实例同时支持以下资源规格。

    镜像大小(GB)

    函数执行时长上限(s)

    磁盘大小上限(GB)

    带宽能力上限(Gbps)

    ACR企业版(标准版):15

    ACR企业版(高级版):15

    ACR企业版(基础版):15

    ACR个人版(免费):15

    86400

    10

    5

    说明
    • 实例规格设置为g1等同于设置为fc.gpu.tesla.1。

    • 目前支持Tesla系列GPU实例的地域包括华东1(杭州)、华东2(上海)、华北2(北京)、华北3(张家口)、华南1(深圳)、日本(东京)、美国(弗吉尼亚)和新加坡。

    • 目前支持Ada系列GPU实例的地域包括华北2(北京)、华东1(杭州)、华东2(上海)和华南1(深圳)。

GPU规格配置表

展开查看fc.gpu.tesla.1实例规格配置表。

vGPU显存(MB)

vCPU(核)

内存规格上限(GB)

内存规格(MB)

1024

0.05~0.5

2

128~2048

2048

0.05~1

4

128~4096

3072

0.05~1.5

6

128~6144

4096

0.05~2

8

128~8192

5120

0.05~2.5

10

128~10240

6144

0.05~3

12

128~12288

7168

0.05~3.5

14

128~14336

8192

0.05~4

16

128~16384

9216

0.05~4.5

18

128~18432

10240

0.05~5

20

128~20480

11264

0.05~5.5

22

128~22528

12288

0.05~6

24

128~24576

13312

0.05~6.5

26

128~26624

14336

0.05~7

28

128~28672

15360

0.05~7.5

30

128~30720

16384

0.05~8

32

128~32768

GPU实例规格与实例并发度的关系

  • Tesla系列整卡显存为16GB,以设置1 GB显存为例,则单卡同时承载16个GPU容器,由于各地域的GPU卡数配额默认最大为30,地域级别最多可同时承载480个GPU容器。

    • 当GPU函数实例并发度为1时,该函数在地域级别的推理并发度为480。

    • 当GPU函数实例并发度为5时,该函数在地域级别的推理并发度为2400。

  • Ada系列整卡显存为48GB,仅支持整卡显存,则单卡同时承载1个GPU容器,由于各地域的GPU卡数配额默认最大为30,地域级别最多可同时承载30个GPU容器。

    • 当GPU函数实例并发度为1时,该函数在地域级别的推理并发度为30。

    • 当GPU函数实例并发度为5时,该函数在地域级别的推理并发度为150。

相关文档