NVIDIA NIM是英伟达推出的一套易于使用的预构建容器工具,目的是帮助企业客户在云、数据中心和工作站上安全、可靠的部署高性能的Al模型推理。NIM模型大部分是英伟达做过优化的模型,相比原始开源模型有显著的部署性能优化,用户可以享受更好的模型推理性能。
模型列表
当前在人工智能平台PAI-Model Gallery中可直接部署的NVIDIA NIM模型如下:
模型名称 | Model Gallery模型页面 | NIM推理优化支持的机型 | 本地部署相关参考 |
模型名称 | Model Gallery模型页面 | NIM推理优化支持的机型 | 本地部署相关参考 |
MolMIM | 通用GPU机型 |
| |
Earth-2 FourCastNet | 通用GPU机型 |
| |
NVIDIA Retrieval QA Mistral 7B Embedding v2 | ecs.gn7e系列 |
| |
Eye Contact | 通用GPU机型 |
| |
NV-CLIP |
|
| |
AlphaFold2-Multimer | 通用GPU机型 |
| |
Snowflake Arctic Embed Large Embedding |
|
| |
NVIDIA Retrieval QA Mistral 4B Reranking v3 |
|
| |
NVIDIA Retrieval QA E5 Embedding v5 |
|
| |
Parakeet CTC Riva 1.1b | 通用GPU机型 |
| |
FastPitch HifiGAN Riva | 通用GPU机型 |
| |
VISTA-3D | 通用GPU机型 |
| |
AlphaFold2 | 通用GPU机型 |
| |
ProteinMPNN | 通用GPU机型 |
| |
megatron-1b-nmt | 通用GPU机型 |
|
在PAI-Model Gallery中部署使用
在搜索框中搜索NVIDIA,或在左侧筛选栏筛选NVIDIA模型。
选择NVIDIA模型进入模型详情页,单击右上角部署。
配置资源等信息后,即可完成NVIDIA NIM模型部署。
本地部署使用
配置环境。详情请参见Getting Started。
在模型列表中获取对应镜像地址。本文以registry.cn-hangzhou.aliyuncs.com/eas/nim/molmim:1.0.0举例说明。
通过以下命令拉取镜像。
docker pull registry.cn-hangzhou.aliyuncs.com/eas/nim/molmim:1.0.0
使用命令启动容器。此处以模型文件保存在您本地/local/model/目录举例说明。
docker run --rm \ --runtime=nvidia \ --gpus all \ -u $(id -u) \ -v /local/model/:${模型列表中的挂载路径} \ registry.cn-hangzhou.aliyuncs.com/eas/nim/molmim:1.0.0
附录:首次使用PAI平台开通流程
对于未注册/未登录阿里云的用户,首次使用PAI-Model Gallery可参考以下流程:
- 本页导读 (1)
- 模型列表
- 在PAI-Model Gallery中部署使用
- 本地部署使用
- 附录:首次使用PAI平台开通流程