应用场景

GPU云服务器适用于视频转码、图片渲染、AI训练、AI推理、云端图形工作站等场景,神行工具包(DeepGPU)为了配合GPU云服务器计算服务增强能力,也适用于所有AI训练场景和AI推理场景。本文主要介绍GPU云服务器和神行工具包(DeepGPU)的...

云速搭部署GPU云服务器

通过云速搭实现GPU云服务器的部署,这里使用 ECS 的 UserData 特性自动安装GPU 驱动、AIACC 等组件,减少配置工作量。涉及产品 专有网络VPC GPU云服务器 弹性公网IP 云速搭CADT 方案架构 操作步骤 具体操作步骤请参考《云速搭部署 GPU ...

API参考

如果您熟悉网络服务协议和一种以上编程语言,推荐您调用API管理您的上资源和开发自己的应用程序。GPU云服务器适用的API和云服务器ECS一致,详情请参见 ECS API简介 和 ECS API概览。

部署GPU云服务器

请按照标签顺序依次点击 新建>新建空白应用,构建如下图所示的包含GPU云服务器实例的应用架构:本文所选地域为 华北2(北京)可用区H。双击GPU实例,配置相关参数。参考 创建GPU实例,选择对应的实例规格、镜像及版本。需要修改自定义登录...

GPU集群中加速AI模型训练

本文适用于AI图片的训练场景,使用文件存储CPFS/NAS作为共享存储,使用容器服务Kubernetes版管理GPU云服务器集群实现AI图片的训练加速。方案优势 使用阿里的容器服务ACK可快速搭建AI图片训练基础环境。使用CPFS存储训练数据,支持多个...

镜像使用说明

ACR版本 镜像大小限制(GB)是否付费 ACR企业版-标准版 10 是 ACR企业版-高级版 10 是 ACR企业版-基础版 10 是 ACR个人版 10 免费 使用官方基础镜像 为了更好地提高兼容性和性能,函数计算 的GPU提供并推荐优先使用官方基础镜像进行业务...

什么是GPU云服务器

对比项 GPU云服务器 GPU自建服务器 灵活性 能够快速开通一台或多台GPU云服务器实例。实例规格(vCPU、内存及GPU)支持灵活变更,并且支持在线升降配。带宽升降自由。服务器购买周期长。服务器规格固定,无法灵活变更。带宽一次性购买,无法...

使用RAPIDS加速机器学习最佳实践

方案优势 阿里云GPU云服务器资源丰富,可灵活选择在GPU上搭建RAPIDS加速机器学习环境。使用容器服务Kubernetes版部署RAPIDS加速机器学习环境。共享存储NAS可提供强大的存储性能。部署架构图 选用的产品列表 产品名称 说明 GPU云服务器 该...

人工智能最佳实践

函数计算 的GPU实例将这些问题从用户侧转移至厂商侧,让您无需关心底层GPU基础设施,完全聚焦于业务本身,极大地简化了业务的实现路径。在不同的应用场景下,函数计算 提供的GPU实例与CPU相比所具备的优势如下。成本优先的AI应用场景 ...

使用RAPIDS加速图像搜索最佳实践

方案优势 阿里云GPU云服务器资源丰富,可灵活选择在GPU上搭建RAPIDS加速图像搜索环境。使用容器服务Kubernetes版可快速部署图像搜索环境和分发应用。共享存储NAS可提供强大的存储性能。部署架构图 选用的产品列表 产品名称 说明 GPU云服务...

基于异步任务调用GPU函数

2021年云栖大会,阿里 函数计算 正式推出基于Turing架构的GPU实例,使得Serverless开发者可以将AI训练与推理的业务负载下沉到GPU硬件加速,从而加快模型训练、推理服务的效率。异步任务 函数计算 提供异步任务的分发、执行和观测的全栈...

阿里异构计算产品总览

神行工具包(DeepGPU)神行工具包是阿里专门为GPU云服务器搭配的GPU计算服务增强工具集合,用户可以基于IaaS产品快速构建企业级服务能力。目前所有神行工具包中的组件都是免费搭配阿里GPU服务器使用,帮助用户更方便、更高效地使用阿里...

使用AIACC-Training(AIACC训练加速)加速BERT Fine...

本文适用于自然语言训练场景,例如,通过使用GPU云服务器和极速型NAS训练BERT Finetune模型,同时使用AIACC-Training(AIACC训练加速)进行该模型的训练加速,可有效加快多机多卡的训练速度,提升模型的训练效率和性能。说明 BERT...

人工智能最佳实践

函数计算 的GPU实例将这些问题从用户侧转移至厂商侧,让您无需关心底层GPU基础设施,完全聚焦于业务本身,极大地简化了业务的实现路径。在不同的应用场景下,函数计算 提供的GPU实例与CPU相比所具备的优势如下。成本优先的AI应用场景 ...

什么是集群极速部署工具FastGPU

FastGPU介绍 FastGPU作为衔接您的线下人工智能算法和线上阿里海量GPU计算资源的关键一环,方便您将人工智能计算任务构建在阿里的IaaS资源上。使用FastGPU构建人工智能计算任务时,您无需关心IaaS层的计算、存储、网络等资源部署操作,...

ALB服务器组概述

添加的云服务器需与服务器组所属同一VPC。云服务器作为后端服务,接收来自ALB转发的请求。关于ECS作为后端服务的教程,请参见:快速实现IPv4服务的负载均衡 快速实现IPv6服务的负载均衡 IP类型 该类型服务器组支持添加IP地址作为后端服务。...

什么是神行工具包(DeepGPU)

神行工具包(DeepGPU)是阿里专门为GPU云服务器搭配的GPU计算服务增强工具集合,旨在帮助开发者在GPU云服务器上更快速地构建企业级服务能力。GPU云服务器搭配神行工具包(DeepGPU)中的组件可以帮助您更方便地利用阿里上GPU资源,...

重启实例

GPU实例作为云服务器ECS的一类实例规格,保持了与ECS实例相同的管理操作。本文介绍如何通过控制台重启实例。前提条件 待重启的实例必须处于 运行中 状态。背景信息 重启操作是维护云服务器的一种常用方式,如系统更新、重启保存相关配置等...

实例命名规则

命名规则 阿里云云服务器ECS提供了多种实例规格族,一种实例规格族又包括多个实例规格。其中,实例规格族名称格式为 ecs.<规格族>,实例规格名称为 ecs.<规格族>.<nx>large。实例具体命名含义如下所示:ecs:云服务器ECS的产品代号。规格...

使用FastGPU加速AI训练/推理

选用的产品列表 产品名称 说明 GPU云服务器 该服务提供了GPU算力的弹性计算服务,具有超强的计算能力,可有效缓解计算压力,提升您的业务效率,帮助您提高企业竞争力。对象存储OSS 是一款海量、安全、低成本、高可靠的存储服务,多种存储...

什么是推理引擎DeepGPU-LLM

产品简介 DeepGPU-LLM作为阿里开发的一套推理引擎,具有易用性和广泛适用性,旨在优化大语言模型在GPU云服务器上的推理过程,通过优化和并行计算等技术手段,为您提供免费的高性能、低延迟推理服务。DeepGPU-LLM的关联布局图如下所示:...

基本概念

DeepGPU 阿里专门为GPU云服务器搭配的具有GPU计算服务增强能力的免费工具集合。AIACC-Taining 阿里自研的分布式训练任务AI加速器,可以显著提升训练性能。AIACC-Inference 阿里自研的推理AI加速器,可以显著提升推理性能。AIACC-...

GPU云产品选型决策指引

传统GPU使用场景存在资源利用率低、使用成本高和弹性能力弱等痛点问题,而Serverless GPU提供了一种更加灵活的方式来利用GPU计算资源,您只需根据自己的实际需求选择合适的GPU型号和计算资源规模即可。本文介绍如何根据您的业务情况选择...

ALB触发器

函数计算 支持 应用型负载均衡ALB(Application Load Balancer)作为事件源,即支持将 函数计算 设置为ALB的后端服务。ALB会将请求转发到 函数计算 中的函数,并且同步返回函数调用结果。本文介绍如何配置ALB触发函数执行。前提条件 函数...

功能发布记录

2023年07月 功能名称 功能描述 发布时间 发布地域 相关文档 实例规格族 发布GPU计算型弹性裸金属服务器实例规格族ebmgn7ix。2023-07-05 部分 实例规格族 2022年12月 功能名称 功能描述 发布时间 发布地域 相关文档 实例规格族 发布GPU计算...

GPU自助诊断

ECS管理控制台支持配置 GPU设备健康检查 功能,通过该功能可以对当前实例的GPU卡状态或驱动状态进行全方位诊断,方便您自行诊断当前实例的GPU卡或驱动是否存在异常,帮助您及时发现和解决存在的常见问题。前提条件 已创建GPU实例且该实例...

创建GPU集群

NVIDIA GPU设备多用于科学计算、图形渲染等场景,为这些计算应用提供加速计算能力。容器服务 Kubernetes 版支持对各种型号的计算GPU资源进行统一调度和运维管理,能够显著提高GPU集群资源的使用效率。本文介绍如何创建GPU集群及查看节点...

创建作业

说明 本示例使用名为gmx.test的用户提交作业,在一个包含8 vCPU和1块P100 GPU卡的计算节点compute000上运行。在实际使用场景中您可根据集群配置情况做出适当修改。bin/sh#PBS-j oe#PBS-l select=1:ncpus=8:mpiprocs=4#PBS-q workq export ...

自定义镜像概述

当轻量应用服务器的配置能再满足您的业务需要、或者您期望使用云服务器ECS部署业务时,您可以通过共享镜像将业务从轻量应用服务器转移至云服务器ECS。共享自定义镜像 取消共享自定义镜像 当您不再需要共享自定义镜像或者需要删除自定义...

产品优势

超强计算能力 阿里云GPU云服务器配备业界超强算力的GPU计算卡,结合高性能CPU平台,单实例可提供高达1000 TFLOPS的混合精度计算性能。网络性能出色 阿里云GPU云服务器实例的VPC网络最大支持450万的PPS及32 Gbit/s的内网带宽。在此基础上,...

什么是GPU容器共享技术cGPU

GPU容器共享技术cGPU是阿里基于内核虚拟GPU隔离的容器共享技术。即多个容器共享一张GPU卡,从而实现业务的安全隔离,提高GPU硬件资源的利用率并降低使用成本。为什么选择cGPU 兼容性好 不仅适配标准的Docker和Containerd工作方式,而且还...

实例概述

ECS实例是上的虚拟计算服务器,包含vCPU、内存、操作系统、网络、磁盘等基础组件。您可以使用阿里提供的控制台、API等管理工具创建和管理ECS实例,像使用本地服务器一样管理ECS实例的状态、应用等,还可以灵活地升级计算、存储等能力。...

新功能发布记录

功能名称 功能描述 发布时间 相关文档 支持通过SMC迁移其他厂商轻量服务器至阿里轻量应用服务器 支持通过SMC将其他厂商轻量服务器(腾讯轻量应用服务器、AWS Lightsail Instance和华为云云耀云服务器)迁移至阿里轻量应用服务器。...

图像处理最佳实践

应用场景与优势 在不同的应用场景下,函数计算 提供的GPU实例与CPU相比所具备的优势如下。实时、准实时的应用场景 提供数倍于CPU的图形图像处理效率,从而快速将生产内容推向终端用户。成本优先的图像处理场景 提供弹性预留模式,从而按需...

启动实例

GPU实例作为云服务器ECS的一类实例规格,保持了与ECS实例相同的管理操作。本文介绍如何在ECS管理控制台上启动实例。前提条件 实例满足以下条件之一:实例处于 已停止 状态。按量付费实例处于 已过期 状态,您已经结清欠费账单但自动重开机...

实例健康诊断

实例健康诊断功能可以对 轻量应用服务器 实例的计算服务状态、网络服务、存储服务和配置管理等进行全方位的诊断,帮助您了解实例的健康状态,及时发现并解决常见的问题。前提条件 轻量应用服务器 实例需处于 运行中 状态。操作场景 推荐您...

ACK支持的GPU机型

该规格支持的GPU型号 GPU计算型gn4 NVIDIA M40 GPU计算型gn5i NVIDIA P4 GPU计算型gn5 NVIDIA P100 GPU计算型gn6e NVIDIA V100 GPU计算型gn6i NVIDIA T4 GPU计算型gn6v NVIDIA V100 GPU计算型gn7i NVIDIA A10 GPU计算型gn7s NVIDIA A30 GPU...

基本概念

通用概念 概念 说明 ECS实例 上的虚拟计算服务器,内含vCPU、内存、操作系统、网络、磁盘等基础组件。ECS实例规格 定义了ECS实例在计算性能、存储性能、网络性能等方面的基本属性,但需要同时配合镜像、块存储、网络等配置才能确定一台...

音视频处理最佳实践

在不同的应用场景下,函数计算 提供的GPU实例与CPU相比所具备的优势如下。实时、准实时的应用场景 提供数倍于CPU的转码效率,从而快速将生产内容推向终端用户。成本优先的GPU应用场景 提供弹性预留模式,从而按需为您保留工作GPU实例,对比...

在轻量应用服务器控制台中显示服务器的内存和磁盘的...

本文主要介绍在轻量应用服务器控制台中显示服务器的内存和磁盘的使用信息的问题描述、问题原因及其解决方案。问题描述 在阿里轻量应用服务器控制台中,查看轻量应用服务器的监控信息时,显示内存和系统盘的使用信息。问题原因 在轻量...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
GPU云服务器 轻量应用服务器 云服务器 ECS 函数计算(旧版) 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用