文档

安装共享GPU调度组件

更新时间:

针对使用共享GPU的模型预测场景,容器服务 Kubernetes 版提供了共享GPU调度能力,同时也支持NVIDIA驱动在内核态的控制,保障GPU显存的隔离。本文介绍如何在专有版GPU集群中安装GPU隔离模块及GPU分配查询工具,实现GPU的共享和隔离能力。

前提条件

使用限制

支持共享GPU调度的节点不能将CPU Policy设置为static

更多使用限制,请见下表。

配置

支持版本

Kubernetes

仅支持1.12.6及其以上版本的专有版集群

操作系统

除了Windows系统外的其他容器服务Kubernetes版支持的操作系统

支持显卡

ACK支持的GPU机型

步骤一:为带有GPU设备的节点打标签

  1. 登录容器服务管理控制台,在左侧导航栏选择集群

  2. 集群列表页面,单击目标集群名称,然后在左侧导航栏,选择节点管理 > 节点

  3. 节点管理页面,单击右上角的标签与污点管理

  4. 标签与污点管理页面,批量选择节点,然后单击添加标签

  5. 在弹出的添加对话框中,填写标签名称,然后单击确定

    设置名称cgputrue,使节点共享GPU功能生效。

重要

如果您需要关闭节点共享GPU功能,可以设置名称cgpufalse。删除标签不能关闭节点共享GPU功能。

步骤二:为添加标签的节点安装共享GPU组件

  1. 集群列表页面,单击目标集群名称,然后在左侧导航栏,选择应用 > Helm

  2. 在页面左上角单击创建。在Chart中选中ack-cgpu,其余配置项按照界面提示操作,完成ack-cgpu的安装。

    Helm页面,当ack-cgpu的状态变成已部署时,表明ack-cgpu已成功部署。