GPU计算型实例规格族(gn/ebm/scc系列)

GPU计算型实例具有高性能、高并行计算能力,适用于大规模并行计算场景,可以为您的业务提供更好的计算性能和效率。本文为您介绍云服务器ECS GPU计算型实例规格族的特点,并列出了具体的实例规格。

背景信息

在阅读各个实例规格族的特点及详细指标之前,您需要提前学习以下信息:

  • 了解实例规格命名及分类:帮助您更好地理解实例规格族的命名及分类信息,了解各规格族之间差异,详参见实例规格分类与命名

  • 了解实例规格指标:提前了解实例规格的各项指标说明,请参见实例规格指标说明

  • 根据业务场景选择实例规格族:想获取更多关于如何在实际业务场景中选择合适的规格,请参见实例规格选型指导

在确定您要选择的实例规格之后,您可能需要进一步了解以下信息:

  • 查看实例可购买地域:各个地域下可供售卖的实例规格可能存在差异,实例的可购情况,您可以前往ECS实例可购买地域查看。

  • 预估实例费用:想了解实例在不同付费方式下大概的花费,可使用阿里云的ECS价格计算器查看。

  • 直接购买实例:可直接前往ECS购买页下单。

您可能还会关注:

  • 查看已停售的规格族:如果在本页面没有找到您想要的实例规格族,可前往已停售的规格族群,详情请参见已停售的实例规格

  • 实例规格的变配情况:想获取某个实例规格是否支持变配到其他实例规格,由于可变配的实例规格之间有一定的限制,请参见支持变配的实例规格

类型

相关链接

GPU计算型(gn系列)

弹性裸金属服务器

超级计算集群

GPU计算型超级计算集群实例规格族sccgn7ex

不推荐(如果该规格售罄,建议使用以上规格)

GPU计算型实例规格族gn8v

该实例目前仅支持海外等部分地域,如有需求,请联系阿里云销售人员。

  • 规格族介绍:gn8v是阿里云针对AI模型训练和超大参数量模型推理任务推出的第8代加速计算规格族(GPU计算型实例规格族),针对不同应用需求,为您提供1卡、2卡、4卡和8卡多种机型。

  • 适用场景

    • 对于70 B以上的LLM模型,进行多卡并行推理计算时性价比较高。

    • 单个GPU提供39.5 TFLPS FP32算力,在传统AI模型训练和自动驾驶训练业务中性能突出。

    • 8卡之间支持NVLINK互联,适用于中小模型训练场景。

  • 产品特色及定位

    • 高速&大容量显存:每个GPU配备了96 GB容量的HBM3e显存,且显存带宽可以达到4 TB/s,大幅加快了模型训练和推理速度。

    • 高卡间带宽:多个GPU卡之间通过900 GB/s NVLINK互联,多卡训练和推理的效率远超过历代GPU产品。

    • 大模型量化技术:支持FP8算力,对大规模参数训练和推理过程的算力进行优化,大幅提升训练和推理的计算速度,降低显存占用。

    • 高安全性:支持CPU机密计算(Intel TDX)和GPU机密计算(NVIDIA CC)功能,闭环全链路模型推理的机密计算能力。对于模型推理和训练的安全性,开启机密计算能力保障用户推理数据和企业模型的安全。

  • 计算

    • 采用最新的CIPU 1.0云处理器。

      • 具有解耦计算和存储能力,可以灵活选择所需存储资源。

      • 提供裸金属能力,相对于传统虚拟化实例,可以支持GPU实例之间的P2P通信。

    • 采用Intel第4代Xeon可扩展处理器,全核睿频可达3.1 GHz,基频可达2.8 GHz。

  • 存储

    • I/O优化实例。

    • 仅支持ESSD云盘和ESSD AutoPL云盘,支持弹性临时盘EED(Elastic Ephemeral Disk)。

  • 网络

gn8v包括的实例规格及指标数据如下表所示。

实例规格

vCPU

内存(GiB)

GPU显存

网络基础带宽(Gbit/s)

弹性网卡

队列数量(主)

单网卡私有IPv4地址数

单网卡IPv6地址数

最大支持云盘数量

云盘基础IOPS

云盘基础带宽(Gbit/s)

ecs.gn8v.4xlarge

16

96

96GB * 1

12

8

16

30

30

17

10万

0.75

ecs.gn8v.6xlarge

24

128

96GB * 1

15

8

24

30

30

17

12万

0.937

ecs.gn8v-2x.8xlarge

32

192

96GB * 2

20

8

32

30

30

25

20万

1.25

ecs.gn8v-4x.8xlarge

32

384

96GB * 4

20

8

32

30

30

25

20万

1.25

ecs.gn8v-2x.12xlarge

48

256

96GB * 2

25

8

48

30

30

33

30万

1.50

ecs.gn8v-8x.16xlarge

64

768

96GB * 8

32

8

64

30

30

33

36万

2.5

ecs.gn8v-4x.24xlarge

96

512

96GB * 4

50

15

64

30

30

49

50万

3

ecs.gn8v-8x.48xlarge

192

1024

96GB * 8

100

15

64

50

50

65

100万

6

GPU计算型实例规格族gn8is

该实例目前仅支持海外等部分地域,如有需求,请联系阿里云销售人员。

  • 规格族介绍:gn8is是阿里云针对近期AI生成业务的发展推出的第8代加速计算规格族(GPU计算型实例规格族),针对不同应用需求,为您提供1卡、2卡、4卡和8卡机型,以及不同CPU和GPU配比的实例规格。

  • 产品特色及定位

    • 图形处理:该产品采用Intel第5代Xeon Scaleable高主频处理器,在3D建模场景中,为您提供足够的CPU算力支撑,使得图形的渲染和设计更加顺畅。

    • 推理任务:采用全新48 GB显存的图形处理单元(GPU)来加速推理任务,支持FP8浮点数格式,搭配ACK容器可灵活支持各类AIGC模型的推理,尤其适用于70 B以下LLM模型的推理任务。

  • 适用场景

    • 结合云市场的GRID镜像使用GRID驱动,启动OpenGL和Direct3D图形能力,提供工作站级图形处理能力,适用于动漫、影视特效制作和渲染。

    • 结合ACK容器化管理能力,更高效、低成本地支撑AIGC图形生成和LLM大模型推理。

    • 其他通用AI识别场景、图像识别、语音识别等。

  • 计算

    • 采用全新GPU计算卡。

      • 支持TensorRT等常用加速功能,支持FP8浮点数格式,提升模型推理性能。

      • 显存容量提升至48 GB,多卡情况下,支持70 B及更大模型的单机推理。

      • 支持图形处理能力,例如通过云助手方式或选择云市场镜像方式安装GRID驱动后,图形处理性能相对7代平台提升1倍。

    • 处理器:采用最新的Intel ® Xeon ®高主频处理器,全核睿频可达3.9 GHz,以应对更复杂的3D建模需求。

  • 存储

    • I/O优化实例。

    • 支持的云盘类型:ESSD云盘、ESSD AutoPL云盘和弹性临时盘EED(Elastic Ephemeral Disk)。

  • 网络

gn8is包括的实例规格及指标数据如下表所示。

实例规格

vCPU

内存(GiB)

GPU显存

网络基础带宽(Gbit/s)

弹性网卡

队列数量(主)

单网卡私有IPv4地址数

单网卡IPv6地址数

最大支持云盘数量

云盘基础IOPS

云盘基础带宽(Gbit/s)

ecs.gn8is.2xlarge

8

64

48GB * 1

8

4

8

15

15

17

6万

0.75

ecs.gn8is.4xlarge

16

128

48GB * 1

16

8

16

30

30

17

12万

1.25

ecs.gn8is-2x.8xlarge

32

256

48GB * 2

32

8

32

30

30

33

25万

2

ecs.gn8is-4x.16xlarge

64

512

48GB * 4

64

8

64

30

30

33

45万

4

ecs.gn8is-8x.32xlarge

128

1024

48GB * 8

100

15

64

50

50

65

90万

8

GPU计算型实例规格族gn7e

gn7e的特点如下:

  • 规格族介绍

    • 您可以根据需要选择不同数量的卡和不同CPU资源的规格,灵活适应其不同的AI业务需求。

    • 依托第三代神龙架构,VPC和云盘网络带宽相比上一代平均提升一倍。

  • 适用场景

    • 中小规模的AI训练业务。

    • 使用CUDA进行加速的HPC业务。

    • 对GPU处理能力或显存容量需求较高的AI推理业务。

    • 深度学习,例如图像分类、无人驾驶、语音识别等人工智能算法的训练应用。

    • 高GPU负载的科学计算,例如计算流体动力学、计算金融学、分子动力学、环境分析等。

    重要

    在使用高通信负载的AI训练业务如Transformer等模型时,务必启用NVLink进行GPU间的数据通信,否则可能由于PCIe链路大规模数据传输引起非预期的故障,导致数据受损。如不确定您使用的训练通信链路拓扑,请提交工单由阿里云技术专家为您提供技术支持。

  • 存储

    • I/O优化实例。

    • 支持的云盘类型:ESSD云盘和ESSD AutoPL云盘。

  • 网络

    • 支持IPv4、IPv6。关于IPv6通信,参见IPv6通信

    • 实例网络性能与实例规格对应,规格越高网络性能越强。

gn7e包括的实例规格及指标数据如下表所示。

实例规格

vCPU

内存(GiB)

GPU显存

网络基础带宽(Gbit/s)

网络收发包PPS

多队列

弹性网卡

单网卡私有IPv4地址数

单网卡IPv6地址数

ecs.gn7e-c16g1.4xlarge

16

125

80GB * 1

8

300万

8

8

10

1

ecs.gn7e-c16g1.8xlarge

32

250

80GB * 2

16

600万

16

8

10

1

ecs.gn7e-c16g1.16xlarge

64

500

80GB * 4

32

1200万

32

8

10

1

ecs.gn7e-c16g1.32xlarge

128

1000

80GB * 8

64

2400万

32

16

15

1

GPU计算型实例规格族gn7i

  • 规格族介绍:依托第三代神龙架构,提供稳定可预期的超高性能。同时通过芯片快速路径加速手段,完成存储、网络性能以及计算稳定性的数量级提升。

  • 适用场景

    • 配备高性能CPU、内存、GPU,可以处理更多并发AI推理任务,适用于图像识别、语音识别、行为识别业务。

    • 支持RTX功能,搭配高主频CPU,提供高性能的3D图形虚拟化能力,适用于远程图形设计、云游戏等高强度图形处理业务。

  • 计算

    • 采用NVIDIA A10 GPU卡。

      • 创新的Ampere架构。

      • 支持RTX、TensorRT等常用加速功能。

    • 处理器:2.9 GHz主频的Intel ® Xeon ® 可扩展处理器(Ice Lake),全核睿频3.5 GHz。

    • 最大可提供752 GiB内存,相比gn6i大幅提升。

  • 存储

    • I/O优化实例。

    • 支持的云盘类型:ESSD云盘和ESSD AutoPL云盘。

  • 网络

    • 支持IPv4、IPv6。关于IPv6通信,参见IPv6通信

    • 实例网络性能与实例规格对应,规格越高网络性能越强。

gn7i包括的实例规格及指标数据如下表所示。

实例规格

vCPU

内存(GiB)

GPU

GPU显存

网络基础带宽(Gbit/s)

网络收发包PPS

多队列

弹性网卡

单网卡私有IPv4地址数

单网卡IPv6地址数

ecs.gn7i-c8g1.2xlarge

8

30

NVIDIA A10 * 1

24GB * 1

16

160万

8

4

15

15

ecs.gn7i-c16g1.4xlarge

16

60

NVIDIA A10 * 1

24GB * 1

16

300万

8

8

30

30

ecs.gn7i-c32g1.8xlarge

32

188

NVIDIA A10 * 1

24GB * 1

16

600万

12

8

30

30

ecs.gn7i-c32g1.16xlarge

64

376

NVIDIA A10 * 2

24GB * 2

32

1200万

16

15

30

30

ecs.gn7i-c32g1.32xlarge

128

752

NVIDIA A10 * 4

24GB * 4

64

2400万

32

15

30

30

ecs.gn7i-c48g1.12xlarge

48

310

NVIDIA A10 * 1

24GB * 1

16

900万

16

8

30

30

ecs.gn7i-c56g1.14xlarge

56

346

NVIDIA A10 * 1

24GB * 1

16

1200万

16

12

30

30

ecs.gn7i-2x.8xlarge

32

128

NVIDIA A10 * 2

24GB * 2

16

600万

16

8

30

30

ecs.gn7i-4x.8xlarge

32

128

NVIDIA A10 * 4

24GB * 4

16

600万

16

8

30

30

ecs.gn7i-4x.16xlarge

64

256

NVIDIA A10 * 4

24GB * 4

32

1200万

32

8

30

30

ecs.gn7i-8x.32xlarge

128

512

NVIDIA A10 * 8

24GB * 8

64

2400万

32

16

30

30

ecs.gn7i-8x.16xlarge

64

256

NVIDIA A10 * 8

24GB * 8

32

1200万

32

8

30

30

说明

ecs.gn7i-2x.8xlarge、ecs.gn7i-4x.8xlarge、ecs.gn7i-4x.16xlarge、ecs.gn7i-8x.32xlarge以及ecs.gn7i-8x.16xlarge实例规格支持更改为ecs.gn7i-c8g1.2xlarge或ecs.gn7i-c16g1.4xlarge实例规格,但不支持更改为ecs.gn7i-c32g1.8xlarge等其他实例规格。

GPU计算型实例规格族gn7s

如需使用gn7s,请提交工单申请。

  • 规格族介绍

    • 采用全新的Intel IceLake处理器,同时搭载Nvidia Ampere架构的NVIDIA A30 GPU卡,您可以根据需要选择不同卡数和不同CPU资源的规格,灵活适应不同的AI业务需求。

    • 基于阿里云全新的第三代神龙架构,VPC和云盘网络带宽相比上一代平均提升一倍。

  • 适用场景:配备高性能CPU、内存、GPU,可以处理更多并发AI推理业务需求,适用于图像识别、语音识别、行为识别业务。

  • 计算

    • 采用NVIDIA A30 GPU卡。

      • 创新的Nvidia Ampere架构。

      • 支持MIG(Multi-Instance GPU)功能、加速功能(基于第二代Tensor Cores加速),提供多种业务支持。

    • 处理器:2.9 GHz主频的Intel ® Xeon ® 可扩展处理器(Ice Lake),全核睿频3.5 GHz。

    • 容量内存相比上一代实例规格族大幅提升。

  • 存储

    • I/O优化实例。

    • 支持的云盘类型:ESSD云盘和ESSD AutoPL云盘。

  • 网络

    • 支持IPv4、IPv6。关于IPv6通信,参见IPv6通信

    • 实例网络性能与实例规格对应,规格越高网络性能越强。

gn7s包括的实例规格及指标数据如下表所示:

实例规格

vCPU

内存(GiB)

GPU

GPU显存

网络基础带宽(Gbit/s)

网络收发包PPS

单网卡私有IPv4地址数

单网卡IPv6地址数

多队列

弹性网卡

ecs.gn7s-c8g1.2xlarge

8

60

NVIDIA A30 * 1

24GB * 1

16

600万

5

1

12

8

ecs.gn7s-c16g1.4xlarge

16

120

NVIDIA A30 * 1

24GB * 1

16

600万

5

1

12

8

ecs.gn7s-c32g1.8xlarge

32

250

NVIDIA A30 * 1

24GB * 1

16

600万

5

1

12

8

ecs.gn7s-c32g1.16xlarge

64

500

NVIDIA A30 * 2

24GB * 2

32

1200万

5

1

16

15

ecs.gn7s-c32g1.32xlarge

128

1000

NVIDIA A30 * 4

24GB * 4

64

2400万

10

1

32

15

ecs.gn7s-c48g1.12xlarge

48

380

NVIDIA A30 * 1

24GB * 1

16

600万

8

1

12

8

ecs.gn7s-c56g1.14xlarge

56

440

NVIDIA A30 * 1

24GB * 1

16

600万

8

1

12

8

GPU计算型实例规格族gn7

  • 适用场景

    • 深度学习,例如图像分类、无人驾驶、语音识别等人工智能算法的训练应用。

    • 高GPU负载的科学计算,例如计算流体动力学、计算金融学、分子动力学、环境分析等。

  • 存储

    • I/O优化实例。

    • 支持的云盘类型:ESSD云盘和ESSD AutoPL云盘。

  • 网络

    • 支持IPv4、IPv6。关于IPv6通信,参见IPv6通信

    • 实例网络性能与实例规格对应,规格越高网络性能越强。

gn7包括的实例规格及指标数据如下表所示。

实例规格

vCPU

内存(GiB)

GPU显存

网络基础带宽(Gbit/s)

网络收发包PPS

多队列

弹性网卡

单网卡私有IPv4地址数

单网卡IPv6地址数

ecs.gn7-c12g1.3xlarge

12

94

40GB * 1

4

250万

4

8

10

1

ecs.gn7-c13g1.13xlarge

52

378

40GB * 4

16

900万

16

8

30

30

ecs.gn7-c13g1.26xlarge

104

756

40GB * 8

30

1800万

16

15

10

1

GPU计算型实例规格族gn7r

  • 规格族介绍

    • gn7r是阿里云推出的企业级ARM处理器+GPU的多功能规格族产品。以ARM架构为基础开发Android线上应用和云手机、云手游等业务,为其提供云原生底层资源平台。同时,其配备的NVIDIA A16 GPU具备多芯片硬件转码能力,可以作为高性价比的视频转码平台,将成本降低至ASIC类转码平台的水平。同时支持基于CUDA的计算架构,可在解码后直接在GPU上进行AI识别和分析。

    • 基于第三代神龙架构,通过CIPU云处理器进行云端资源管理,提供稳定可预期的超高计算、存储和网络性能。

    • 采用NVIDIA A16 GPU计算加速器提供GPU加速能力,支持图形加速、硬件转码和AI业务。

      说明

      每块NVIDIA A16卡包含4个GA 107处理芯片。

  • 适用场景:基于Android提供APP远端服务,例如云业务在线待机、云手游和云手机、Android业务爬虫、视频业务转码、视频识别、审查、视频编辑等。

  • 计算

    • 处理器:3.0 GHz主频的Ampere ® Altra ® Max处理器,原生ARM计算平台为Android服务器提供高效的性能和优秀的App兼容性。

  • 存储

    • I/O优化实例。

    • 支持的云盘类型:ESSD云盘和ESSD AutoPL云盘。

  • 网络

    • 支持IPv4、IPv6。关于IPv6通信,参见IPv6通信

gn7r包括的实例规格及指标数据如下表所示:

实例规格

vCPU

内存(GiB)

GPU

网络基础带宽(Gbit/s)

网络收发包PPS

单网卡私有IPv4地址数

单网卡IPv6地址数

多队列

弹性网卡

ecs.gn7r-c16g1.4xlarge

16

64

NVIDIA GA107 * 1

8

300万

15

15

8

8

GPU计算型实例规格族gn6i

  • 适用场景

    • AI(DL和ML)推理,适合计算机视觉、语音识别、语音合成、NLP、机器翻译、推荐系统。

    • 云游戏云端实时渲染。

    • AR和VR的云端实时渲染。

    • 重载图形计算或图形工作站。

    • GPU加速数据库。

    • 高性能计算。

  • 计算

    • GPU加速器:T4 。

      • 创新的Turing架构。

      • 单GPU显存16 GB(GPU显存带宽320 GB/s)。

      • 单GPU 2560个CUDA Cores。

      • 单GPU多达320个Turing Tensor Cores。

      • 可变精度Tensor Cores支持65 TFlops FP16、130 INT8 TOPS、260 INT4 TOPS。

    • 处理器与内存配比约为1:4。

    • 处理器:2.5 GHz主频的Intel ® Xeon ® Platinum 8163(Skylake)。

  • 存储

    • I/O优化实例。

    • 支持的云盘类型:ESSD云盘、ESSD AutoPL云盘、SSD云盘和高效云盘。

  • 网络

    • 支持IPv4、IPv6。关于IPv6通信,参见IPv6通信

    • 实例网络性能与实例规格对应,规格越高网络性能越强。

gn6i包括的实例规格及指标数据如下表所示。

实例规格

vCPU

内存(GiB)

GPU

GPU显存

网络基础带宽(Gbit/s)

网络收发包PPS

云盘基础IOPS

多队列

弹性网卡

单网卡私有IPv4地址数

单网卡IPv6地址数

ecs.gn6i-c4g1.xlarge

4

15

NVIDIA T4 * 1

16GB * 1

4

50万

2

2

10

1

ecs.gn6i-c8g1.2xlarge

8

31

NVIDIA T4 * 1

16GB * 1

5

80万

2

2

10

1

ecs.gn6i-c16g1.4xlarge

16

62

NVIDIA T4 * 1

16GB * 1

6

100万

4

3

10

1

ecs.gn6i-c24g1.6xlarge

24

93

NVIDIA T4 * 1

16GB * 1

7.5

120万

6

4

10

1

ecs.gn6i-c40g1.10xlarge

40

155

NVIDIA T4 * 1

16GB * 1

10

160万

16

10

10

1

ecs.gn6i-c24g1.12xlarge

48

186

NVIDIA T4 * 2

16GB * 2

15

240万

12

6

10

1

ecs.gn6i-c24g1.24xlarge

96

372

NVIDIA T4 * 4

16GB * 4

30

480万

25万

24

8

10

1

GPU计算型实例规格族gn6e

  • 适用场景

    • 深度学习,例如图像分类、无人驾驶、语音识别等人工智能算法的训练、推理应用。

    • 科学计算,例如计算流体动力学、计算金融学、分子动力学、环境分析等。

  • 计算

    • 采用NVIDIA V100(32 GB NVLink)GPU卡。

    • GPU加速器:V100(SXM2封装)。

      • 创新的Volta架构。

      • 单GPU显存32 GB HBM2(GPU显存带宽900 GB/s)。

      • 单GPU 5120个CUDA Cores。

      • 单GPU 640个Tensor Cores。

      • 单GPU支持6个NVLink链路(NVLink属于双向链路),单向链路的带宽为25 Gbit/s,总带宽为6×25×2=300 Gbit/s。

    • 处理器与内存配比约为1:8。

    • 处理器:2.5 GHz主频的Intel ® Xeon ® Platinum 8163(Skylake)。

  • 存储

    • I/O优化实例。

    • 支持的云盘类型:ESSD云盘、ESSD AutoPL云盘、SSD云盘和高效云盘。

  • 网络

    • 支持IPv4、IPv6。关于IPv6通信,参见IPv6通信

    • 实例网络性能与实例规格对应,规格越高网络性能越强。

gn6e包括的实例规格及指标数据如下表所示。

实例规格

vCPU

内存(GiB)

GPU

GPU显存

网络基础带宽(Gbit/s)

网络收发包PPS

多队列

弹性网卡

单网卡私有IPv4地址数

单网卡IPv6地址数

ecs.gn6e-c12g1.3xlarge

12

92

NVIDIA V100 * 1

32GB * 1

5

80万

8

6

10

1

ecs.gn6e-c12g1.6xlarge

24

182

NVIDIA V100 * 2

32GB * 2

8

120万

8

8

20

1

ecs.gn6e-c12g1.12xlarge

48

368

NVIDIA V100 * 4

32GB * 4

16

240万

8

8

20

1

ecs.gn6e-c12g1.24xlarge

96

736

NVIDIA V100 * 8

32GB * 8

32

480万

16

8

20

1

GPU计算型实例规格族gn6v

  • 适用场景

    • 深度学习,例如图像分类、无人驾驶、语音识别等人工智能算法的训练、推理应用。

    • 科学计算,例如计算流体动力学、计算金融学、分子动力学、环境分析等。

  • 计算

    • 采用NVIDIA V100 GPU卡。

    • GPU加速器:V100(SXM2封装) 。

      • 创新的Volta架构。

      • 单GPU显存16 GB HBM2(GPU显存带宽900 GB/s)。

      • 单GPU 5120个CUDA Cores。

      • 单GPU 640个Tensor Cores。

      • 单GPU支持6个NVLink链路(NVLink属于双向链路),单向链路的带宽为25 Git/s,总带宽为6×25×2=300 Git/s。

    • 处理器与内存配比约为1:4。

    • 处理器:2.5 GHz主频的Intel ® Xeon ® Platinum 8163(Skylake)。

  • 存储

    • I/O优化实例。

    • 支持的云盘类型:ESSD云盘、ESSD AutoPL云盘、SSD云盘和高效云盘。

  • 网络

    • 支持IPv4、IPv6。关于IPv6通信,参见IPv6通信

    • 实例网络性能与实例规格对应,规格越高网络性能越强。

gn6v包括的实例规格及指标数据如下表所示。

实例规格

vCPU

内存(GiB)

GPU

GPU显存

网络基础带宽(Gbit/s)

网络收发包PPS

云盘基础IOPS

多队列

弹性网卡

单网卡私有IPv4地址数

单网卡IPv6地址数

ecs.gn6v-c8g1.2xlarge

8

32

NVIDIA V100 * 1

16GB * 1

2.5

80万

4

4

10

1

ecs.gn6v-c8g1.4xlarge

16

64

NVIDIA V100 * 2

16GB * 2

5

100万

4

8

20

1

ecs.gn6v-c8g1.8xlarge

32

128

NVIDIA V100 * 4

16GB * 4

10

200万

8

8

20

1

ecs.gn6v-c8g1.16xlarge

64

256

NVIDIA V100 * 8

16GB * 8

20

250万

16

8

20

1

ecs.gn6v-c10g1.20xlarge

82

336

NVIDIA V100 * 8

16GB * 8

32

450万

25万

16

8

20

1

GPU计算型弹性裸金属服务器实例规格族ebmgn8v

该实例目前仅支持海外等部分地域,如有需求,请联系阿里云销售人员。

  • 规格族介绍:

    ebmgn8v是阿里云为AI模型训练和超大参数量模型推出的第8代加速计算规格族(弹性裸金属实例规格族),每个实例是1台采用了8个GPU卡裸金属主机。

  • 适用场景

    • 对于70 B以上的LLM模型,进行多卡并行推理计算时性价比较高。

    • 单个GPU提供39.5 TFLPS FP32算力,在传统AI模型训练和自动驾驶训练业务中性能突出。

    • 8卡之间支持NVLINK互联,适用于中小模型训练场景。

  • 产品特色及定位:

    • 高速&大容量显存:每个GPU配备了96 GB容量的HBM3e显存,显存带宽达到4 TB/s,大幅加快了模型训练和推理速度。

    • 高卡间带宽:多GPU卡之间通过900 GB/s NVLINK互联,多卡训练和推理的效率远超过历代GPU产品。

    • 大模型量化技术:支持FP8算力,对大规模参数训练和推理过程的算力进行优化,大幅提升训练和推理的计算速度,降低显存占用。

  • 计算

    • 采用最新的CIPU 1.0云处理器

      • 具有解耦计算和存储能力,可以灵活选择所需存储资源。相对于第七代GPU实例,该实例规格的机器间带宽提升至160 Gbit/s,可以更快地完成数据传输和处理。

      • CIPU提供裸金属能力,相对于传统虚拟化实例,可以支持GPU实例之间的P2P通信。

    • 采用Intel第4代Xeon可扩展处理,提供192个vCPU,全核睿频可达3.1 GHz。

  • 存储

    • I/O优化实例。

    • 仅支持ESSD云盘和ESSD AutoPL云盘,支持弹性临时盘EED(Elastic Ephemeral Disk)。

  • 网络

    • 支持IPv4、IPv6。关于IPv6通信,请参见IPv6通信

    • 超高网络性能,3000万PPS网络收发包能力。

    • 支持ERI(Elastic RDMA Interface),可以在VPC网络下实现RDMA直通加速互联,将带宽提升至160 Gbit/s,可用于CV和传统模型的训练业务。

      说明

      关于ERI的使用说明,请参见在企业级实例上使用eRDMA在GPU实例上配置eRDMA

ebmgn8v包括的实例规格及指标数据如下表所示。

实例规格

vCPU

内存(GiB)

GPU显存

网络基础带宽(Gbit/s)

网络收发包PPS

单网卡私有IPv4地址数

单网卡IPv6地址数

多队列(主网卡&辅助网卡)

弹性网卡

最大挂载数据盘数

云盘最大带宽(Gbit/s)

ecs.ebmgn8v.48xlarge

192

1024

96GB*8

160(80 * 2)

3000万

30

30

64

32

31

6

说明

ebmgn8V实例规格所使用的镜像启动模式必须为UEFI模式。如果您需要使用自定义镜像,请确保该自定义镜像支持UEFI启动模式,并且镜像的启动模式属性已设置为UEFI模式。具体操作,请参见通过API设置自定义镜像的启动模式为UEFI模式

GPU计算型弹性裸金属服务器实例规格族ebmgn8is

该实例目前仅支持海外等部分地域,如有需求,请联系阿里云销售人员。

  • 规格族介绍:

    ebmgn8is是阿里云针对近期AI生成业务的发展推出的第8代加速计算规格族(弹性裸金属实例规格族),每个实例为一台采用了8个GPU计算卡的裸金属主机。

  • 适用场景:

    • 结合云市场的GRID镜像使用GRID图形驱动,启动OpenGL和Direct3D图形能力,提供工作站级图形处理能力,适用于动漫、影视特效制作和渲染

    • 结合ACK容器化管理能力,更高效、低成本地支撑AIGC图形生成和LLM大模型推理(最大支持130 B)

    • 其他通用AI识别场景、图像识别、语音识别等

  • 产品特色及定位:

    • 图形处理:该产品采用Intel第5代Xeon Scalable高主频处理器,在3D建模场景,为您提供足够的CPU算力支撑,使得图形的渲染和设计更加顺畅。

    • 推理任务:采用全新48 GB显存的图形处理单元(GPU)来加速推理任务,支持FP8浮点数格式,搭配ACK容器可灵活支持各类AIGC模型的推理,尤其适用于70 B以下LLM模型的推理任务。

    • 训练任务:该实例提供高性价比的计算能力,FP32计算性能相比7代推理实例提升1倍,特别适用于基于FP32开发的CV类模型和其他各类中小模型的训练。

  • 采用最新的CIPU 1.0云处理器:

    • 具有解耦计算和存储能力,可以灵活选择所需存储资源。相对于上一代,该实例规格的机器间带宽提升至160 Gbit/s,可以更快地完成数据传输和处理。

    • CIPU提供裸金属能力,相对于传统虚拟化实例,可以支持GPU实例之间的PCIE P2P通信。

  • 计算:

    • 采用全新GPU计算卡

      • 支持vGPU、RTX、TensorRT等常用加速功能

      • 采用PCIE Switch互联,相比直连CPU方案,其NCCL性能提升36%,多卡分片推理大模型时,推理性能最大提升9%

      • 显存容量提升至48 GB*8卡,支持70 B及更大模型单机推理

    • 处理器:3.4 GHz主频的Intel ® Xeon ®可扩展处理器(SPR),全核睿频可达3.9 GHz

  • 存储:

    • 均为I/O优化实例

    • 仅支持ESSD云盘和ESSD AutoPL云盘,支持EED弹性缓存盘

  • 网络:

    • 支持IPv4、IPv6

    • 超高网络性能,3000万PPS网络收发包能力

    • 支持ERI(Elastic RDMA Interface),可以在VPC网络下实现RDMA直通加速互联,将带宽提升至160 Gbit/s,可用于CV和传统模型的训练业务。

      说明

      关于ERI的使用说明,请参见在企业级实例上使用eRDMA在GPU实例上配置eRDMA

ebmgn8is包括的实例规格及指标数据如下表所示。

实例规格

vCPU

内存(GiB)

GPU显存

网络基础带宽(Gbit/s)

网络收发包PPS

单网卡私有IPv4地址数

单网卡IPv6地址数

多队列(主网卡/辅助网卡)

弹性网卡

最大挂在数据盘数

云盘最大带宽(Gbit/s)

ecs.ebmgn8is.32xlarge

128

1024

48GB*8

160(80 * 2)

3000万

30

30

64/16

32

31

6

说明

ebmgn8is实例规格所使用的镜像启动模式必须为UEFI模式。如果您需要使用自定义镜像,请确保该自定义镜像支持UEFI启动模式,并且镜像的启动模式属性已设置为UEFI模式。具体操作,请参见通过API设置自定义镜像的启动模式为UEFI模式

GPU计算型弹性裸金属服务器实例规格族ebmgn7ex

  • 规格族介绍:

    ebmgn7ex是阿里云为了应对日益增长的大规模AI训练需求开发的高带宽实例。ebmgn7ex依托第四代神龙架构,采用阿里云全新CIPU架构,多台裸金属之间通过eRDMA网络互联,在160 Gbit/s的互联带宽下实现RDMA通信。打开eRDMA后,您可以根据训练需求弹性选择集群中的机器数量,快速满足大规模AI训练的需求。

  • 适用场景:

    • 各类深度学习训练开发业务

    • HPC加速计算和仿真

    重要

    在使用高通信负载的AI训练业务如Transformer等模型时,务必启用NVLink进行GPU间的数据通信,否则可能由于PCIe链路大规模数据传输引起非预期的故障,导致数据受损。如不确定您使用的训练通信链路拓扑,请提交工单由阿里云技术专家为您提供技术支持。

  • 计算:

    • 处理器:基于Intel ® 第三代 Xeon ®Scalable计算平台(Icelake),2.9 GHz主频,全核睿频3.5 GHz,支持PCIe 4.0接口

  • 存储:

    • I/O优化实例

    • 仅支持ESSD云盘和ESSD AutoPL云盘

  • 网络:

    • 支持IPv4、IPv6

    • 支持物理网卡

    • 超高网络性能,2400万PPS网络收发包能力

    • 支持ERI(Elastic RDMA Interface),可以在VPC网络下实现RDMA直通加速互联。实例上绑定两张弹性RDMA网卡(Elastic RDMA Interface,简称ERI),每张弹性网卡连接到不同的网卡索引,可以实现160 Gbit/s的网络带宽;所有ERI连接到相同的网卡索引,实例最高可达到100 Gbit/s的网络带宽。更多信息,请参见AttachNetworkInterface

      说明

      关于ERI的使用说明,请参见在企业级实例上使用eRDMA或者在GPU实例上配置eRDMA

ebmgn7ex包括的实例规格及指标数据如下表所示。

实例规格

vCPU

内存(GiB)

GPU显存

网络基础带宽(Gbit/s)

网络收发包PPS

单网卡私有IPv4地址数

单网卡IPv6地址数

物理网卡数

多队列(主网卡/辅助网卡)

弹性网卡

ecs.ebmgn7ex.32xlarge

128

1024

80GB * 8

160(80 * 2)

2400万

30

30

2

32/32

16

说明

ebmgn7ex实例规格所使用的镜像启动模式必须为UEFI模式。如果您需要使用自定义镜像,请确保该自定义镜像支持UEFI启动模式,并且镜像的启动模式属性已设置为UEFI模式。具体操作,请参见通过API设置自定义镜像的启动模式为UEFI模式

GPU计算型弹性裸金属服务器实例规格族ebmgn7e

  • 规格族介绍:

    ebmgn7e是基于神龙架构,实现软件定义硬件计算,灵活弹性与强悍性能兼备的实例规格族。

  • 适用场景:

    • 各类深度学习训练开发业务

    • HPC加速计算和仿真

    重要

    在使用高通信负载的AI训练业务如Transformer等模型时,务必启用NVLink进行GPU间的数据通信,否则可能由于PCIe链路大规模数据传输引起非预期的故障,导致数据受损。如不确定您使用的训练通信链路拓扑,请提交工单由阿里云技术专家为您提供技术支持。

  • 计算:

    • 处理器:基于Intel ® Xeon ®Scalable计算平台,2.9 GHz主频,全核睿频3.5 GHz,支持PCIe 4.0接口

  • 存储:

    • I/O优化实例

    • 仅支持ESSD云盘和ESSD AutoPL云盘

  • 网络:

    • 支持IPv4、IPv6

    • 超高网络性能,2400万PPS网络收发包能力

ebmgn7e包括的实例规格及指标数据如下表所示。

实例规格

vCPU

内存(GiB)

GPU显存

网络基础带宽(Gbit/s)

网络收发包PPS

多队列(主网卡/辅助网卡)

弹性网卡

单网卡私有IPv4地址数

单网卡IPv6地址数

ecs.ebmgn7e.32xlarge

128

1024

80GB * 8

64

2400万

32/12

32

10

1

MIG(Multi-Instance GPU)功能需要您在ebmgn7e实例启动后自行检查并决定是否开启或关闭,系统无法保证MIG(Multi-Instance GPU)功能是开启或关闭状态。关于MIG(Multi-Instance GPU)的更多信息,请参见NVIDIA Multi-Instance GPU User Guide

ebmgn7e实例是否支持开启MIG功能的说明如下所示:

实例规格

是否支持开启MIG功能

说明

ecs.ebmgn7e.32xlarge

ebmgn7e裸金属实例支持开启MIG功能。

GPU计算型弹性裸金属服务器实例规格族ebmgn7ix

  • 规格族介绍:

    • ebmgn7ix是阿里云基于近期AI生成业务的发展推出的一款新型弹性裸金属实例规格族,每个实例为一台采用了8个A10 GPU计算卡的裸金属主机。

    • 采用最新的CIPU 1.0云处理器,解耦计算和存储能力,可以灵活选择所需存储资源。相对于上一代,该实例规格的机器间带宽提升至160 Gbit/s,可以更快地完成数据传输和处理,并应对小规模的多机训练业务。

    • 提供了裸金属规格能力,相对于传统虚拟化实例,可以支持GPU实例之间的P2P通信,大幅提升多GPU的计算效率。

  • 适用场景:

    • 结合云市场的GRID镜像启动A10的图形能力,提供高效的图形处理能力,适用于动漫、影视特效制作和渲染。

    • 结合ACK容器化管理能力,更高效、低成本地支撑AIGC图形生成和LLM大模型推理(最大支持130 B)。

    • 其他通用AI识别场景、图像识别、语音识别等。

  • 计算:

    • 采用NVIDIA A10 GPU计算卡

      • 创新的Ampere架构

      • 支持vGPU、RTX、TensorRT等常用加速功能

    • 处理器:2.9 GHz主频的Intel ® Xeon ®可扩展处理器(Ice Lake),全核睿频3.5 GHz

  • 存储:

    • 均为I/O优化实例

    • 仅支持ESSD云盘和ESSD AutoPL云盘

  • 网络:

    • 支持IPv4、IPv6

    • 超高网络性能,2400万PPS网络收发包能力

    • 支持ERI(Elastic RDMA Interface),可以在VPC网络下实现RDMA直通加速互联,将带宽提升至160 Gbit/s

      说明

      关于ERI的使用说明,请参见在企业级实例上使用eRDMA在GPU实例上配置eRDMA

ebmgn7ix包括的实例规格及指标数据如下表所示。

实例规格

vCPU

内存(GiB)

GPU

网络基础带宽(Gbit/s)

网络收发包PPS

单网卡私有IPv4地址数

单网卡IPv6地址数

多队列(主网卡/辅助网卡)

弹性网卡

ecs.ebmgn7ix.32xlarge

128

512

NVIDIA A10 * 8

160

2400万

30

30

32/32

1

说明

ebmgn7ix实例规格所使用的镜像启动模式必须为UEFI模式。如果您需要使用自定义镜像,请确保该自定义镜像支持UEFI启动模式,并且镜像的启动模式属性已设置为UEFI模式。具体操作,请参见通过API设置自定义镜像的启动模式为UEFI模式

GPU计算型弹性裸金属服务器实例规格族ebmgn7i

  • 规格族介绍:

    ebmgn7i是基于神龙架构,实现软件定义硬件计算,灵活弹性与强悍性能兼备的实例规格族。

  • 适用场景:

    • 配备高性能CPU、内存、GPU,可以处理更多并发AI推理任务,适用于图像识别、语音识别、行为识别业务。

    • 支持RTX功能,搭配高主频CPU,提供高性能的3D图形虚拟化能力,适用于远程图形设计、云游戏等高强度图形处理业务。

    • 支持RTX功能,搭配高网络带宽和云盘带宽,适用于搭建高性能渲染农场。

    • 配备多个GPU,搭配高网络带宽,适用于小规模深度学习训练业务。

  • 计算:

    • 采用NVIDIA A10 GPU计算卡

      • 创新的Ampere架构

      • 支持vGPU、RTX、TensorRT等常用加速功能

    • 处理器:2.9 GHz主频的Intel ® Xeon ®可扩展处理器(Ice Lake),全核睿频3.5 GHz

  • 存储:

    • I/O优化实例

    • 仅支持ESSD云盘和ESSD AutoPL云盘

  • 网络:

    • 支持IPv4、IPv6

    • 超高网络性能,2400万PPS网络收发包能力

ebmgn7i包括的实例规格及指标数据如下表所示。

实例规格

vCPU

内存(GiB)

GPU

GPU显存

网络基础带宽(Gbit/s)

网络收发包PPS

多队列

弹性网卡

单网卡私有IPv4地址数

单网卡IPv6地址数

ecs.ebmgn7i.32xlarge

128

768

NVIDIA A10 * 4

24GB * 4

64

2400万

32

32

10

1

GPU计算型弹性裸金属服务器实例规格族ebmgn7

  • 规格族介绍:

    ebmgn7基于神龙架构,实现软件定义硬件计算,灵活弹性与强悍性能兼备的实例规格族。

  • 适用场景:

    • 深度学习,例如图像分类、无人驾驶、语音识别等人工智能算法的训练应用。

    • 高GPU负载的科学计算,例如计算流体动力学、计算金融学、分子动力学、环境分析等。

  • 计算:

    • 处理器:2.5 GHz主频的Intel ® Xeon ® Platinum 8269CY(Cascade Lake)

  • 存储:

    • I/O优化实例

    • 仅支持ESSD云盘和ESSD AutoPL云盘

  • 网络:

    • 支持IPv4、IPv6

    • 实例网络性能与计算规格对应(规格越高网络性能越强)

ebmgn7包括的实例规格及指标数据如下表所示。

实例规格

vCPU

内存(GiB)

GPU显存

网络基础带宽(Gbit/s)

网络收发包PPS

多队列

弹性网卡

单网卡私有IPv4地址数

单网卡IPv6地址数

ecs.ebmgn7.26xlarge

104

768

40GB*8

30

1800万

16

15

10

1

MIG(Multi-Instance GPU)功能需要您在ebmgn7实例启动后自己检查并决定是否开启或关闭,系统无法保证MIG(Multi-Instance GPU)功能是开启还是关闭状态。关于MIG(Multi-Instance GPU)的更多信息,请参见NVIDIA Multi-Instance GPU User Guide

ebmgn7实例是否支持开启MIG功能的说明如下所示:

实例规格

是否支持开启MIG功能

说明

ecs.ebmgn7.26xlarge

ebmgn7裸金属实例支持开启MIG功能。

GPU计算型弹性裸金属服务器实例规格族ebmgn6ia

  • 规格族介绍:

    • 依托第三代神龙架构,通过芯片快速路径加速手段,提供稳定可预期的超高计算、存储和网络性能。

    • 采用NVIDIA T4 GPU计算加速器提供GPU加速能力,助力图形和AI业务,搭配容器技术可以提供60路以上虚拟Android终端,并对每路终端显示进行硬件视频转码加速。

  • 适用场景:

    • 基于Android提供App远端服务,例如云业务在线待机、云手游和云手机、Android业务爬虫。

  • 计算:

    • 处理器与内存配比约为1:3。

    • 处理器:2.8 GHz主频的Ampere® Altra®处理器,睿频3.0 GHz,原生ARM计算平台为Android服务器提供高效的性能和优秀的App兼容性。

  • 存储:

    • I/O优化实例

    • 仅支持ESSD云盘和ESSD AutoPL云盘

  • 网络:

    • 支持IPv4、IPv6

ebmgn6ia包括的实例规格及指标数据如下表所示。

实例规格

vCPU

内存(GiB)

GPU

GPU显存

网络基础带宽(Gbit/s)

网络收发包PPS

多队列

弹性网卡

单网卡私有IPv4地址数

单网卡IPv6地址数

ecs.ebmgn6ia.20xlarge

80

256

NVIDIA T4 * 2

16GB * 2

32

2400万

32

15

10

1

说明

Ampere® Altra®处理器对操作系统内核版本有一定要求。当您使用该实例规格创建ECS实例时,可以直接选用Alibaba Cloud Linux 3和CentOS 8.4及以上版本的操作系统镜像(建议您使用Alibaba Cloud Linux 3镜像)。如果您需要使用其他操作系统版本,请参见Ampere Altra (TM) Linux Kernel Porting Guide,在指定操作系统的ECS实例中为内核打上相应的补丁,完成之后基于该ECS实例创建自定义镜像,然后再通过自定义镜像创建新的ECS实例时选择该实例规格。

GPU计算型弹性裸金属服务器实例规格族ebmgn6e

  • 规格族介绍:

    • ebmgn6e是基于神龙架构,实现软件定义硬件计算,灵活弹性与强悍性能兼备的实例规格族。

    • 采用NVIDIA V100(32 GB NVLink) GPU计算卡

    • GPU加速器为V100(SXM2封装) ,特点如下:

      • 创新的Volta架构

      • 单GPU显存32 GB HBM2(GPU显存带宽900 GB/s)

      • 单GPU 5120个CUDA Cores

      • 单GPU 640个Tensor Cores

      • 单GPU支持6个NVLink链路(NVLink属于双向链路),单向链路的带宽为25 GB/s,总带宽为6×25×2=300 GB/s

  • 适用场景:

    • 深度学习,例如图像分类、无人驾驶、语音识别等人工智能算法的训练以及推理应用。

    • 科学计算,例如计算流体动力学、计算金融学、分子动力学、环境分析等。

  • 计算:

    • 处理器与内存配比为1:8。

    • 处理器:2.5 GHz主频的Intel ® Xeon ® Platinum 8163(Skylake)。

  • 存储:

    • I/O优化实例。

    • 仅支持ESSD云盘、ESSD AutoPL云盘、SSD云盘和高效云盘。

  • 网络:

    • 支持IPv4、IPv6。

    • 实例网络性能与计算规格对应(规格越高网络性能越强)。

ebmgn6e包括的实例规格及指标数据如下表所示。

实例规格

vCPU

内存(GiB)

GPU

GPU显存

网络基础带宽(Gbit/s)

网络收发包PPS

多队列

弹性网卡

单网卡私有IPv4地址数

单网卡IPv6地址数

ecs.ebmgn6e.24xlarge

96

768

NVIDIA V100 * 8

32GB * 8

32

480万

16

15

10

1

GPU计算型弹性裸金属服务器实例规格族ebmgn6v

  • 规格族介绍:

    • ebmgn6v是基于神龙架构,实现软件定义硬件计算,灵活弹性与强悍性能兼备的实例规格族。

    • 采用NVIDIA V100 GPU计算卡

    • GPU加速器为V100(SXM2封装) ,特点如下:

      • 创新的Volta架构

      • 单GPU显存16 GB HBM2(GPU显存带宽900 GB/s)

      • 单GPU 5120个CUDA Cores

      • 单GPU 640个Tensor Cores

      • 单GPU支持6个NVLink链路(NVLink属于双向链路),单向链路的带宽为25 GB/s,总带宽为6×25×2=300 GB/s

  • 适用场景:

    • 深度学习,例如图像分类、无人驾驶、语音识别等人工智能算法的训练以及推理应用

    • 科学计算,例如计算流体动力学、计算金融学、分子动力学、环境分析等。

  • 计算:

    • 处理器与内存配比为1:4。

    • 处理器:2.5 GHz主频的Intel ® Xeon ® Platinum 8163(Skylake)。

  • 存储:

    • I/O优化实例

    • 仅支持ESSD云盘、ESSD AutoPL云盘、SSD云盘和高效云盘。

  • 网络:

    • 支持IPv4、IPv6。

    • 实例网络性能与计算规格对应(规格越高网络性能越强)。

ebmgn6v包括的实例规格及指标数据如下表所示。

实例规格

vCPU

内存(GiB)

GPU

GPU显存

网络基础带宽(Gbit/s)

网络收发包PPS

多队列

弹性网卡

单网卡私有IPv4地址数

单网卡IPv6地址数

ecs.ebmgn6v.24xlarge

96

384

NVIDIA V100 * 8

16GB * 8

30

450万

8

32

10

1

GPU计算型弹性裸金属服务器实例规格族ebmgn6i

  • 规格族介绍:

    • ebmgn6i是基于神龙架构,实现软件定义硬件计算,灵活弹性与强悍性能兼备的实例规格族。

    • GPU加速器为T4 ,特点如下:

      • 创新的Turing架构

      • 单GPU显存16 GB(GPU显存带宽320 GB/s)

      • 单GPU 2560个CUDA Cores

      • 单GPU多达320个Turing Tensor Cores

      • 可变精度Tensor Cores支持65 TFlops FP16、130 INT8 TOPS、260 INT4 TOPS

  • 适用场景:

    • AI(DL/ML)推理,适合计算机视觉、语音识别、语音合成、NLP、机器翻译、推荐系统。

    • 云游戏云端实时渲染。

    • AR/VR的云端实时渲染。

    • 重载图形计算或图形工作站。

    • GPU加速数据库。

    • 高性能计算。

  • 计算:

    • 处理器与内存配比为1:4。

    • 处理器:2.5 GHz主频的Intel ® Xeon ® Platinum 8163(Skylake)。

  • 存储:

    • I/O优化实例。

    • 仅支持ESSD、ESSD AutoPL云盘、SSD云盘和高效云盘。

  • 网络:

    • 支持IPv4、IPv6。

    • 实例网络性能与计算规格对应(规格越高网络性能越强)。

ebmgn6i包括的实例规格及指标数据如下表所示。

实例规格

vCPU

内存(GiB)

GPU

GPU显存

网络基础带宽(Gbit/s)

网络收发包PPS

多队列

弹性网卡

单网卡私有IPv4地址数

单网卡IPv6地址数

ecs.ebmgn6i.24xlarge

96

384

NVIDIA T4 * 4

16GB * 4

30

450万

8

32

10

1

GPU计算型超级计算集群实例规格族sccgn7ex

  • 规格族介绍:sccgn7ex是阿里云为了面对日益增长的大规模AI训练需求开发的高带宽超算集群实例。多台裸金属服务器之间采用第三代RDMA SCC网络互联,支持800 G的互联带宽。您可以根据训练需求弹性选择线上集群数量,快速满足大规模AI参数训练的需求。

  • 适用场景:超大规模AI训练场景。

  • 计算

    • 支持NVSwitch,算力高达312T(TF32)。

    • 处理器与内存配比为1:8。

    • 处理器:采用第三代Intel® Xeon® 8369可扩展处理器(Ice Lake),基频2.9 GHz,全核睿频3.5 GHz,支持PCIe 4.0接口。

  • 存储

    • I/O优化实例

    • 仅支持ESSD云盘和ESSD AutoPL云盘

  • 网络

    • 支持IPv4、IPv6。关于IPv6通信,参见IPv6通信

    • 仅支持专有网络VPC。

    • 超高网络性能,2400万PPS网络收发包能力。

    • sccgn7ex实例间支持800 Gbit/s的互联带宽(4 * 双口100 Gbit/s RDMA),支持GPUDirect,每颗GPU直连一个100 Gbit/s网口。

sccgn7ex包括的实例规格及指标数据如下表所示。

实例规格

vCPU

内存(GiB)

GPU显存(GB)

网络基础带宽(Gbit/s)

网络收发包PPS

RoCE网络(Gbit/s)

弹性网卡

ecs.sccgn7ex.32xlarge

128

1024

80 GB * 8

64

2400万

800

32

GPU计算型实例规格族gn5i

  • 适用场景: 深度学习推理、多媒体编解码等服务器端GPU计算工作负载。

  • 计算:

    • 采用NVIDIA P4 GPU卡。

    • 处理器与内存配比为1:4。

    • 处理器:2.5 GHz主频的Intel ® Xeon ® E5-2682 v4(Broadwell)。

  • 存储:

    • I/O优化实例。

    • 支持的云盘类型:SSD云盘和高效云盘。

  • 网络:

    • 支持IPv4、IPv6。关于IPv6通信,参见IPv6通信

    • 实例网络性能与实例规格对应,规格越高网络性能越强。

gn5i包括的实例规格及指标数据如下:

实例规格

vCPU

内存(GiB)

GPU

GPU显存

网络基础带宽(Gbit/s)

网络收发包PPS

多队列

弹性网卡

单网卡私有IPv4地址数

单网卡IPv6地址数

ecs.gn5i-c2g1.large

2

8

NVIDIA P4 * 1

8GB * 1

1

10万

2

2

6

1

ecs.gn5i-c4g1.xlarge

4

16

NVIDIA P4 * 1

8GB * 1

1.5

20万

2

3

10

1

ecs.gn5i-c8g1.2xlarge

8

32

NVIDIA P4 * 1

8GB * 1

2

40万

4

4

10

1

ecs.gn5i-c16g1.4xlarge

16

64

NVIDIA P4 * 1

8GB * 1

3

80万

4

8

20

1

ecs.gn5i-c16g1.8xlarge

32

128

NVIDIA P4 * 2

8GB * 2

6

120万

8

8

20

1

ecs.gn5i-c28g1.14xlarge

56

224

NVIDIA P4 * 2

8GB * 2

10

200万

14

8

20

1

GPU计算型实例规格族gn5

  • 适用场景

    • 深度学习。

    • 科学计算,例如计算流体动力学、计算金融学、基因组学研究、环境分析。

    • 高性能计算、渲染、多媒体编解码及其他服务器端GPU计算工作负载。

  • 计算

    • 采用NVIDIA P100 GPU卡。

    • 多种处理器与内存配比。

    • 处理器:2.5 GHz主频的Intel ® Xeon ® E5-2682 v4(Broadwell)。

  • 存储

    • 配备高性能NVMe SSD本地盘。

    • I/O优化实例。

    • 支持的云盘类型:SSD云盘和高效云盘。

  • 网络

    • 仅支持IPv4

    • 实例网络性能与实例规格对应,规格越高网络性能越强。

gn5包括的实例规格及指标数据如下表所示。

实例规格

vCPU

内存(GiB)

本地存储(GiB)

GPU

GPU显存

网络基础带宽(Gbit/s)

网络收发包PPS

多队列

弹性网卡

单网卡私有IPv4地址数

ecs.gn5-c4g1.xlarge

4

30

440

NVIDIA P100 * 1

16GB * 1

3

30万

1

3

10

ecs.gn5-c8g1.2xlarge

8

60

440

NVIDIA P100 * 1

16GB * 1

3

40万

1

4

10

ecs.gn5-c4g1.2xlarge

8

60

880

NVIDIA P100 * 2

16GB * 2

5

100万

2

4

10

ecs.gn5-c8g1.4xlarge

16

120

880

NVIDIA P100 * 2

16GB * 2

5

100万

4

8

20

ecs.gn5-c28g1.7xlarge

28

112

440

NVIDIA P100 * 1

16GB * 1

5

100万

8

8

20

ecs.gn5-c8g1.8xlarge

32

240

1760

NVIDIA P100 * 4

16GB * 4

10

200万

8

8

20

ecs.gn5-c28g1.14xlarge

56

224

880

NVIDIA P100 * 2

16GB * 2

10

200万

14

8

20

ecs.gn5-c8g1.14xlarge

54

480

3520

NVIDIA P100 * 8

16GB * 8

25

400万

14

8

20