API参考

如果您熟悉网络服务协议和一种以上编程语言,推荐您调用API管理您的上资源和开发自己的应用程序。GPU云服务器适用的API和云服务器ECS一致,详情请参见 ECS API简介 和 ECS API概览。

云速搭部署GPU云服务器

通过云速搭实现GPU云服务器的部署,这里使用 ECS 的 UserData 特性自动安装GPU 驱动、AIACC 等组件,减少配置工作量。涉及产品 专有网络VPC GPU云服务器 弹性公网IP 云速搭CADT 方案架构 操作步骤 具体操作步骤请参考《云速搭部署 GPU ...

应用场景

GPU云服务器适用于视频转码、图片渲染、AI训练、AI推理、云端图形工作站等场景,神行工具包(DeepGPU)为了配合GPU云服务器的计算服务增强能力,也适用于所有AI训练场景和AI推理场景。本文主要介绍GPU云服务器和神行工具包(DeepGPU)的...

概览

您可以通过创建资源栈组实现在不同地域、不同账号下创建多个资源栈。应用场景 跨账号创建资源栈 当某企业需要在多个账号创建相同的资源时,为提高部署效率,管理员账号可以在创建资源栈组时,选择添加多个目标账号,部署一个地域,从而在...

什么是GPU云服务器

对比项 GPU云服务器 GPU自建服务器 灵活性 能够快速开通一台或台GPU云服务器实例。实例规格(vCPU、内存及GPU)支持灵活变更,并且支持在线升降配。带宽升降自由。服务器购买周期长。服务器规格固定,无法灵活变更。带宽一次性购买,无法...

GPU监控

监控通过安装在阿里主机(ECS实例)上的监控插件,采集GPU的监控数据,您还可以为这些监控项设置报警规则。当某个监控项达到报警条件时,会给您发送报警通知,以便您及时关注其动态。前提条件 请确保您已在云服务器ECS上创建GPU计算...

阿里异构计算产品总览

GPU云服务器 GPU云服务器是基于GPU应用的计算服务器GPU在执行复杂的数学和几何计算方面有着独特的优势。特别是浮点运算、并行运算等方面,GPU可以提供上百倍于CPU的计算能力。作为阿里弹性计算家族的一员,GPU云服务器结合了GPU计算力...

产品优势

阿里GPU云服务器具有广阔的覆盖范围、超强的计算能力、出色的网络性能和灵活的购买方式,神行工具包(DeepGPU)是专门为GPU云服务器搭配的具有GPU计算服务增强能力的免费工具集。本文主要介绍GPU云服务器和神行工具包(DeepGPU)的优势。...

部署GPU云服务器

请按照标签顺序依次点击 新建>新建空白应用,构建如图所示的包含GPU云服务器实例的应用架构:本文所选地域为 华北2(北京)可用区H。双击GPU实例,配置相关参数。参考 创建GPU实例,选择对应的实例规格、镜像及版本。需要修改自定义登录...

ACK集群实现GPU AI模型训练

场景描述 本方案适用于AI图片训练场景,使用CPFS和NAS作为共享存储,利用容器服务Kubernetes版管理GPU云服务器集群进行图片AI训练。解决问题 搭建AI图片训练基础环境。使用CPFS存储训练数据。使用飞天AI加速训练工具加速训练。使用Arena一...

配置共享GPU调度节点选卡策略

配置项 说明 实例规格 架构 选择 GPU云服务器,选择多个GPU实例规格。由于只有在节点有多张GPU卡的情况,节点选卡策略才能看出效果,建议选择带有多张GPU卡机型。期望节点数 设置节点池初始节点数量。如无需创建节点,可以填写为0。节点...

Apache配置域名访问不同网站

步骤一:创建测试网站 如果您的多个网站代码已保存在服务器的网站根目录,可以跳过本步骤。远程连接LAMP服务器。具体操作,请参见 通过控制台使用Workbench远程连接Linux服务器(推荐)。运行以下命令,进入网站根目录。轻量应用服务器的...

什么是推理引擎DeepGPU-LLM

DeepGPU-LLM是阿里研发的基于GPU云服务器的大语言模型(Large Language Model,LLM)推理引擎,在处理大语言模型任务中,该推理引擎可以为您提供高性能的大模型推理服务。产品简介 DeepGPU-LLM作为阿里开发的一套推理引擎,具有易用性...

最佳实践概览

源服务器迁移至轻量应用服务器 服务器迁移中心支持将其他厂商轻量服务器(腾讯轻量应用服务器、AWS Lightsail Instance和华为云云耀云服务器)迁移至阿里轻量应用服务器。高可用架构 轻量应用负载均衡可以将公网访问的流量分发到后端的...

产品范围

专属区域可以支持的产品范围 专属区域支持的产品范围 IaaS产品:云服务器 ECS、弹性裸金属服务器 EBM、GPU 云服务器、FPGA 云服务器、Alibaba Cloud Linux、容器服务 ACK、容器镜像服务 ACR、块存储 EBS、对象存储 OSS、文件存储 NAS、...

GPU集群中加速AI模型训练

本文适用于AI图片的训练场景,使用文件存储CPFS/NAS作为共享存储,使用容器服务Kubernetes版管理GPU云服务器集群实现AI图片的训练加速。方案优势 使用阿里的容器服务ACK可快速搭建AI图片训练基础环境。使用CPFS存储训练数据,支持多个...

配置共享GPU调度仅共享不隔离策略

配置项 说明 实例规格 架构 选择 GPU云服务器,选择多个GPU实例规格。本文以使用GPU卡V100为例进行说明。期望节点数 设置节点池初始节点数量。如无需创建节点,可以填写为0。节点标签 单击,添加如下记录:键 为 ack.node.gpu.schedule,值...

配置用户标识

多账号场景 当您使用多个阿里账号的日志服务对同一台服务器进行日志采集时,您可以在同一台服务器创建多个用户标识文件。例如:touch/etc/ilogtail/users/17*742 touch/etc/ilogtail/users/17*743 删除用户标识 重要 请及时删除...

使用ACK服务实现GPU的成本优化

GPU云服务器 该服务提供了GPU算力的弹性计算服务,具有超强的计算能力,可有效缓解计算压力,提升您的业务效率,帮助您提高企业竞争力。容器服务ACK 该服务提供了高性能且可伸缩的容器应用管理能力,支持企业级容器化应用的全生命周期管理...

directx-device-plugin-windows

在阿里上使用虚拟化GPU云服务器时,directx-device-plugin-windows可以为Windows容器提供基于DirectX构建的GPU加速功能。关于虚拟化GPU云服务器的详细介绍,请参见 GPU虚拟化型。directx-device-plugin-windows仅支持v1.20.4及其以上版本...

云服务使用限制索引

弹性计算 云服务 使用限制 云服务器ECS 使用限制 弹性裸金属服务器 使用限制 FPGA云服务器 使用限制 GPU云服务器 使用限制 存储容量单位包 使用限制 块存储 使用限制 轻量应用服务器 使用限制 专有宿主机 使用限制 批量计算 使用限制 容器...

什么是神行工具包(DeepGPU)

神行工具包(DeepGPU)是阿里专门为GPU云服务器搭配的GPU计算服务增强工具集合,旨在帮助开发者在GPU云服务器上更快速地构建企业级服务能力。GPU云服务器搭配神行工具包(DeepGPU)中的组件可以帮助您更方便地利用阿里上GPU资源,...

通过CCM跨集群部署服务

app:nginx type:LoadBalancer 说明 CCM会使用该CLB作为Service的负载均衡,并根据其他注解配置CLB,自动为CLB创建多个虚拟服务器组。CCM还提供了许多阿里注解,支持丰富的负载均衡能力。更多信息,请参见 通过Annotation配置传统型负载...

创建工作空间组

一个租户可以创建多个工作空间组,一个工作空间组可以跨地域关联多个工作空间。本文介绍如何通过 SOFAStack 控制台创建工作空间组。背景信息 您可以通过创建工作空间组对多个工作空间进行管理。同城双活架构,工作空间组采用单地域双...

执行命令

多个服务器执行命令 登录 轻量应用服务器管理控制台。在左侧导航栏,单击 命令助手。在 我的命令 页签,在目标命令的 操作 列,单击 执行。在执行命令面板中,配置参数。在 命令信息 中查看命令内容、设置命令参数和设置执行用户。在 ...

安装GPU拓扑感知调度组件

前提条件 已创建ACK Pro集群,且集群的实例规格类型选择为 GPU云服务器。更信息,请参见 创建Kubernetes托管版集群。获取集群KubeConfig并通过kubectl工具连接集群。系统组件版本满足以下要求。组件 版本要求 Kubernetes 1.18.8及以上...

组播概述

一个企业版转发路由器下支持创建多个组播域,同地域的多个组播域之间互不相通,跨地域的多个组播域拥有相同组播IP地址的组播组之间支持互通。组播组 在组播域中,一组发送和接收相同组播报文的资源组成一个组播组。每个组播组均由一个组...

Service的负载均衡配置注意事项

CCM会使用该SLB作为Service的负载均衡,并根据其他annotation配置SLB,自动为SLB创建多个虚拟服务器组。当Service删除时,CCM不会删除您通过ID指定的已有SLB。CCM会根据Service的配置,自动创建和配置SLB、监听、虚拟服务器组等资源,所有...

Service的负载均衡配置注意事项

CCM会使用该SLB作为Service的负载均衡,并根据其他annotation配置SLB,自动为SLB创建多个虚拟服务器组。当Service删除时,CCM不会删除您通过ID指定的已有SLB。CCM会根据Service的配置,自动创建和配置SLB、监听、虚拟服务器组等资源,所有...

管理应用(适用于应用镜像)

当选择轻量应用服务器的应用镜像创建服务器后,您可以在控制台查看应用镜像中的预置的应用,并...例如,您可以基于LAMP环境部署Mantis开源缺陷跟踪系统、可以在同一台服务器上为多个网站分配不同的域名等。更多信息,请参见 最佳实践概览。

屏终端

可选:您可以继续单击 新建终端,创建多个终端连接。在已连接的实例窗口,输入需要执行的命令。如图所示,表示同时在2台实例上执行命令。管理多屏终端 管理多屏终端窗口 以下操作指导您如何管理已连接的ECS实例窗口,例如如何禁用和启用...

实例启动模板概述

模板一旦创建,不可修改配置,但支持创建多个版本,每个版本可以配置不同的参数,通过版本管理来体现实例配置的演进过程。您可以使用模板中的任意一个版本来创建实例。计费说明 实例启动模板本身不收费。但是使用实例启动模板部署ECS资源的...

GPU监控

监控通过安装在阿里主机(ECS实例)上的监控插件,采集GPU的监控数据,您还可以为这些监控项设置报警规则。当某个监控项达到报警条件时,会给您发送报警通知,以便您及时关注其动态。前提条件 请确保您已在云服务器ECS上创建GPU计算...

创建索引表

可以创建多个index,每个index之间用,分割。可以将多个列添加到同一个索引中,索引和每个列之间用:分割。下面这个示例中,一共创建了z3和attr两个索引,其中start列+dtg列为z3索引;end列+dtg列为z3索引;name列和dtg列为attr索引。sft....

基本概念

本文汇总使用GPU云服务器过程中涉及的基本概念,方便您查询和了解相关概念。GPU云服务器相关概念 概念 说明 GPU 图形处理器(Graphics Processing Unit)。相比CPU具有众多计算单元和更的流水线,适合用于大规模并行计算等场景。CUDA ...

使用RAPIDS加速机器学习最佳实践

方案优势 阿里云GPU云服务器资源丰富,可灵活选择在GPU上搭建RAPIDS加速机器学习环境。使用容器服务Kubernetes版部署RAPIDS加速机器学习环境。共享存储NAS可提供强大的存储性能。部署架构图 选用的产品列表 产品名称 说明 GPU云服务器 该...

管理MSFE接入层集群

接入层版本变更 您可以对接入层服务器执行版本变更操作,若您需要变更单个或多个服务器的版本信息,可以执行灰度变更操作,若您需要一次变更所有服务器的版本信息,可以执行变更操作,具体操作如下。版本变更 单击目标单元页签,然后在 ...

使用RAPIDS加速图像搜索最佳实践

方案优势 阿里云GPU云服务器资源丰富,可灵活选择在GPU上搭建RAPIDS加速图像搜索环境。使用容器服务Kubernetes版可快速部署图像搜索环境和分发应用。共享存储NAS可提供强大的存储性能。部署架构图 选用的产品列表 产品名称 说明 GPU云服务...

自定义DNS服务器FAQ

如果您想使用自建DNS服务器进行域名解析,您需要先创建自己的DNS服务器。本文为您介绍有关自建DNS服务器的常见问题。什么是自定义DNS服务器服务器名称如何填写?...如您的自定义DNS服务器创建成功后无法删除,请您咨询 阿里智能在线。

使用限制

位于中国内地地域,且购买时长在3月以上(包含续费)的服务器,每个服务器可申请5备案服务号。轻量应用服务器默认配置了一个公网IP,该公网IP不支持更换,服务器到期后不支持保留。轻量应用服务器目前不支持配置IPv6地址。如果轻量...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
GPU云服务器 云服务器 ECS 轻量应用服务器 负载均衡 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用