training-nv-pytorch 25.03

本文介绍training-nv-pytorch 25.03版本发布记录。

Main Features and Bug Fix Lists

Main Features

  • 基础镜像对齐NGC 25.02。

  • Pytorch及系列组件升级至2.6.0.7、TE升级至2.1、accelerate升级至1.5.2,合入对应版本功能和Bug fix。

  • ACCL-N 升级为2.23.4.12,合入对应版本功能和Bug fix。

  • vLLM升级至0.8.2.dev0、ray相应升级至2.44,新增支持flash-infer 0.2.3、Transformers升级至 4.49.0+ali、flash_attn升级至2.7.2,合入对应版本功能和Bug fix。

Bugs Fix

升级vLLM版本至0.8.2.dev0,修复Illegal memory access for MoE On H20 #13693问题。

Contents

应用场景

训练/推理

框架

pytorch

Requirements

NVIDIA Driver release >= 570

核心组件

  • Ubuntu 24.04

  • Python 3.12.7+gc

  • Torch 2.6.0.7

  • CUDA 12.8.0

  • ACCL-N 2.23.4.12

  • triton 3.1.0

  • TransformerEngine 2.1

  • deepspeed 0.15.4+ali

  • flash-attn 2.7.2

  • flashattn-hopper 3.0.0b1

  • transformers 4.49.0+ali

  • megatron-core 0.9.0

  • grouped_gemm 1.1.4

  • accelerate 1.5.2

  • diffusers 0.31.0

  • openmim 0.3.9

  • mmengine 0.10.3

  • mmcv 2.1.0

  • mmdet 3.3.0

  • opencv-python-headless 4.10.0.84

  • ultralytics 8.2.74

  • timm 1.0.13

  • mmdet 3.3.0

  • vllm 0.8.2.dev0+g61c7a1b8.d20250325.cu128

  • flashinfer 0.2.3

  • pytorch-dynamic-profiler 0.24.11

  • perf 5.4.30

  • gdb 15.0.50

  • peft 0.13.2

  • ray 2.44.0

Assets

25.03 公网镜像

  • egslingjun-registry.cn-wulanchabu.cr.aliyuncs.com/egslingjun/training-nv-pytorch:25.03-serverless 

VPC镜像

  • acs-registry-vpc.{region-id}.cr.aliyuncs.com/egslingjun/{image:tag}

    {region-id}为您使用的ACS产品所在的开服地域,比如:cn-beijing、cn-wulanchabu等。
    {image:tag}为实际镜像的名称和Tag。
说明
  • egslingjun-registry.cn-wulanchabu.cr.aliyuncs.com/egslingjun/training-nv-pytorch:25.03-serverless镜像适用于ACS产品形态、灵骏多租产品形态,不适用于灵骏单租产品形态。

  • egslingjun-registry.cn-wulanchabu.cr.aliyuncs.com/egslingjun/training-nv-pytorch:25.03镜像适用于灵骏单租场景。

Driver Requirements

  • 25.03 Release对齐NGC pytorch 25.02镜像版本更新(因NGC是每月月底发布镜像,Golden镜像研发月只能基于上月版本的NGC),因此Golden-gpu的驱动遵循对应NGC镜像版本的要求。该Release基于CUDA 12.8.0.38,需要NVIDIA驱动程序版本570或更高版本。但是,如果您在数据中心GPU(例如T4或任何其他数据中心GPU)上运行,则可以使用NVIDIA驱动程序版本470.57(或更高版本R470)、525.85(或更高版本 R525)、535.86(或更高版本 R535),或545.23(或更高版本的 R545)。

  • CUDA驱动程序的兼容性包只支持特定的驱动程序。因此,用户应该从所有R418、R440、R450、R460、R510、R520、R530、R545 和R555驱动程序升级,这些驱动程序不向前兼容CUDA 12.8。有关支持的驱动程序的完整列表,请参见CUDA 应用程序兼容性。更多信息,请参加CUDA 兼容性和升级

Key Features and Enhancements

PyTorch编译优化

PyTorch 2.0引入的编译优化能力在单卡小规模下通常可以获得显著的收益,但是在LLM训练中需要引入显存优化、FSDP/DeepSpeed等分布式框架,导致torch.compile()无法简单地获得收益或者存在负收益:

  • DeepSpeed框架下控制通信的颗粒度,帮助编译器获取更完整的计算图,做更大范围的编译优化。

  • 优化版本的PyTorch:

    • 优化PyTorch编译器前端,确保在计算图中出现任意graph break的情况下仍能正常编译。

    • 强化模式匹配以及dynamic shape能力,提高编译后代码性能。

结合上述优化,在8B LLM训练下通常可以获得20%左右的E2E吞吐收益。

重计算显存优化

基于大量性能评测数据,包括不同模型在不同集群以及不同训练参数配置,以及评测过程中采集的相关显存利用率等系统指标数据,我们进行模型显存开销的预测建模分析,并推荐出最佳的激活值重算层数,并集成到PyTorch中,让用户可以低门槛的使用显存优化带来的性能收益。当前已支持该特性在DeepSpeed框架中的适配。

ACCL通信库

ACCL是阿里针对灵骏产品自研的高性能网络通信库,针对GPU场景提供ACCL-N版本。ACCL-N是阿里云基于英伟达NCCL定制后提供的高性能通信库,在完全兼容NCCL的基础上,修复了官方NCCL版本的一些BUG,并进行了性能和稳定性相关的优化。

E2E性能收益评估

利用云原生AI性能评测分析工具CNP,我们采用主流开源模型和框架配置,与标准的基础镜像进行了全面的端到端性能比较分析,并通过消融实验分析,进一步评估了每个优化组件对整体模型训练性能的收益贡献。

GPU核心组件E2E性能贡献分析

以下测试基于25.03, 在多节点GPU集群上进行E2E性能评测和对比分析,对比项包括:

  1. Base:NGC PyTorch Image

  2. ACS AI Image:Base+ACCL:镜像使用ACCL通信库

  3. ACS AI Image:AC2+ACCL:Golden镜像使用AC2 BaseOS,不开启任何优化

  4. ACS AI Image:AC2+ACCL+CompilerOpt:Golden镜像使用AC2 BaseOS,只启用torch compile优化

  5. ACS AI Image:AC2+ACCL+CompilerOpt+CkptOpt:Golden镜像使用AC2 BaseOS,且同时开启torch compileselective gradient checkpoint优化

image.png

Quick Start

以下示例内容仅通过Docker方式拉取training-nv-pytorch镜像。

说明

ACS中使用training-nv-pytorch镜像需要通过控制台创建工作负载界面的制品中心页面选取,或者通过YAML文件指定镜像引用。

1. 选择镜像

docker pull egslingjun-registry.cn-wulanchabu.cr.aliyuncs.com/egslingjun/training-nv-pytorch:[tag]

2. 调用API开启编译器+重计算显存优化

  • 启用编译优化

    使用transformers Trainer API:

    image.png

  • 启用重计算显存优化

    export CHECKPOINT_OPTIMIZATION=true

3. 启动容器

镜像中内置了模型训练工具ljperf,以此说明启动容器和运行训练任务的步骤。

LLM

# 启动容器并进入
docker run --rm -it --ipc=host --net=host  --privileged egslingjun-registry.cn-wulanchabu.cr.aliyuncs.com/egslingjun/training-nv-pytorch:[tag]

# 运行训练demo
ljperf --action train --model_name deepspeed/llama3-8b 

4. 使用建议

  • 镜像中的改动涉及Pytorch、DeepSpeed等库(后续会upstream),请勿重装。

  • DeepSpeed配置中的zero_optimization.stage3_prefetch_bucket_size留空或设置为auto

Known Issues

(暂无)