异构计算产品最佳实践概览

GPU云服务器 搭建Linux环境License Server 使用GRID驱动必须申请相应的License,同时需要将License部署在License Server上,本教程以Ubuntu 18.04操作系统为例,介绍如何搭建Linux操作系统的License Server。搭建Windows环境的License ...

GPU云服务器计费

GPU云服务器计费相关功能与云服务器ECS一致,本文为您介绍GPU云服务器涉及的计费项、计费方式、续费和退费说明等。计费项及其计费方式 一台GPU实例包括计算资源(vCPU、内存和GPU)、镜像、块存储等资源,其中涉及计费的GPU资源如下表所示...

使用AIACC-Training(AIACC训练加速)加速BERT Fine...

本文适用于自然语言训练场景,例如,通过使用GPU云服务器和极速型NAS训练BERT Finetune模型,同时使用AIACC-Training(AIACC训练加速)进行该模型的训练加速,可有效加快多机多卡的训练速度,提升模型的训练效率和性能。说明 BERT...

云速搭部署GPU云服务器

通过云速搭实现GPU云服务器的部署,这里使用 ECS 的 UserData 特性自动安装GPU 驱动、AIACC 等组件,减少配置工作量。涉及产品 专有网络VPC GPU云服务器 弹性公网IP 云速搭CADT 方案架构 操作步骤 具体操作步骤请参考《云速搭部署 GPU ...

API参考

如果您熟悉网络服务协议和一种以上编程语言,推荐您调用API管理您的上资源和开发自己的应用程序。GPU云服务器适用的API和云服务器ECS一致,详情请参见 ECS API简介 和 ECS API概览。

什么是神行工具包(DeepGPU)

神行工具包(DeepGPU)是阿里专门为GPU云服务器搭配的GPU计算服务增强工具集合,旨在帮助开发者在GPU云服务器上更快速地构建企业级服务能力。GPU云服务器搭配神行工具包(DeepGPU)中的组件可以帮助您更方便地利用阿里上GPU资源,...

产品优势

阿里GPU云服务器具有广阔的覆盖范围、超强的计算能力、出色的网络性能和灵活的购买方式,神行工具包(DeepGPU)是专门为GPU云服务器搭配的具有GPU计算服务增强能力的免费工具集。本文主要介绍GPU云服务器和神行工具包(DeepGPU)的优势。...

什么是GPU云服务器

对比项 GPU云服务器 GPU自建服务器 灵活性 能够快速开通一台或多台GPU云服务器实例。实例规格(vCPU、内存及GPU)支持灵活变更,并且支持在线升降配。带宽升降自由。服务器购买周期长。服务器规格固定,无法灵活变更。带宽一次性购买,无法...

使用RAPIDS加速机器学习最佳实践

方案优势 阿里云GPU云服务器资源丰富,可灵活选择在GPU上搭建RAPIDS加速机器学习环境。使用容器服务Kubernetes版部署RAPIDS加速机器学习环境。共享存储NAS可提供强大的存储性能。部署架构图 选用的产品列表 产品名称 说明 GPU云服务器 该...

使用RAPIDS加速图像搜索最佳实践

方案优势 阿里云GPU云服务器资源丰富,可灵活选择在GPU上搭建RAPIDS加速图像搜索环境。使用容器服务Kubernetes版可快速部署图像搜索环境和分发应用。共享存储NAS可提供强大的存储性能。部署架构图 选用的产品列表 产品名称 说明 GPU云服务...

ACK集群实现GPU AI模型训练

场景描述 本方案适用于AI图片训练场景,使用CPFS和NAS作为共享存储,利用容器服务Kubernetes版管理GPU云服务器集群进行图片AI训练。解决问题 搭建AI图片训练基础环境。使用CPFS存储训练数据。使用飞天AI加速训练工具加速训练。使用Arena一...

什么是推理引擎DeepGPU-LLM

DeepGPU-LLM是阿里研发的基于GPU云服务器的大语言模型(Large Language Model,LLM)推理引擎,在处理大语言模型任务中,该推理引擎可以为您提供高性能的大模型推理服务。产品简介 DeepGPU-LLM作为阿里开发的一套推理引擎,具有易用性...

部署GPU云服务器

请按照标签顺序依次点击 新建>新建空白应用,构建如下图所示的包含GPU云服务器实例的应用架构:本文所选地域为 华北2(北京)可用区H。双击GPU实例,配置相关参数。参考 创建GPU实例,选择对应的实例规格、镜像及版本。需要修改自定义登录...

云服务使用限制索引

弹性计算 云服务 使用限制 云服务器ECS 使用限制 弹性裸金属服务器 使用限制 FPGA云服务器 使用限制 GPU云服务器 使用限制 存储容量单位包 使用限制 块存储 使用限制 轻量应用服务器 使用限制 专有宿主机 使用限制 批量计算 使用限制 容器...

Tesla或GRID驱动安装指引

GPU实例本身并未配备相关驱动,只有安装了驱动的GPU实例,才能实现计算加速或图形渲染等功能。根据不同GPU实例规格安装与之匹配的Tesla或GRID驱动,...如果GPU实例安装驱动后,在使用过程中遇到黑屏或其他问题,请参见 GPU云服务器常见问题。

准实时推理场景

本文介绍什么是准实时推理场景,以及如何使用GPU按量实例,以及如何基于GPU按量实例构建使用成本较低的准实时推理服务。场景介绍 在准实时推理应用场景中,工作负载具有以下一个或多个特征。调用稀疏 日均调用几次到几万次,日均GPU实际...

产品范围

专属区域可以支持的产品范围 专属区域支持的产品范围 IaaS产品:云服务器 ECS、弹性裸金属服务器 EBM、GPU 云服务器、FPGA 云服务器、Alibaba Cloud Linux、容器服务 ACK、容器镜像服务 ACR、块存储 EBS、对象存储 OSS、文件存储 NAS、...

快速搭建AI对话机器人

本文介绍如何使用阿里云GPU云服务器,基于ChatGLM-6B语言模型快速搭建AI对话机器人。背景信息 ChatGLM-6B是一个开源的、支持中英双语对话的语言模型,它基于General Language Model(GLM)架构,具有62亿参数;并使用了和ChatGPT相似的技术...

准实时推理场景

本文介绍什么是准实时推理场景,以及如何使用GPU按量实例,以及如何基于GPU按量实例构建使用成本较低的准实时推理服务。场景介绍 在准实时推理应用场景中,工作负载具有以下一个或多个特征。调用稀疏 日均调用几次到几万次,日均GPU实际...

阿里异构计算产品总览

作为阿里弹性计算家族的一员,GPU云服务器结合了GPU计算力与CPU计算力,同时实现GPU计算资源的即开即和弹性伸缩。满足您在人工智能、高性能计算、专业图形图像处理等场景中的需求。更多信息,请参见 什么是GPU云服务器。神行工具包...

安装共享GPU调度组件

ACK Pro集群的实例规格架构设置为 GPU云服务器。其他配置,请参见 创建ACK集群Pro版。已获取集群KubeConfig并通过kubectl工具连接集群。使用限制 请勿将共享GPU调度的节点的CPU Policy设置为 static。cGPU服务的隔离功能不支持以UVM的方式...

AIGC文本生成视频

本文介绍如何使用GPU云服务器搭建Stable Diffusion模型,并基于ModelScope框架,实现使用文本生成视频。背景信息 自多态模型GPT-4发布后,AIGC(AI Generated Content,AI生成内容)时代正扑面而来,从单一的文字文本,演化到更丰富的图片...

配置共享GPU调度节点选卡策略

配置项 说明 实例规格 架构 选择 GPU云服务器,选择多个GPU实例规格。由于只有在节点有多张GPU卡的情况下,节点选卡策略才能看出效果,建议选择带有多张GPU卡机型。期望节点数 设置节点池初始节点数量。如无需创建节点,可以填写为0。节点...

开启GPU加速计算

加速原理 数据库中GPU并行加速是指对象级的并行,将单个字段的对象转换为适合并行计算的模型,利用GPU超多核心的能力并行计算。注意事项 对于并发数较大的场景,单个GPU设备会存在资源受限的情况,所以建议在会话中关闭GPU加速计算功能。...

开启GPU加速计算

加速原理 数据库中GPU并行加速是指对象级的并行,将单个字段的对象转换为适合并行计算的模型,利用GPU超多核心的能力并行计算。注意事项 对于并发数较大的场景,单个GPU设备会存在资源受限的情况,所以建议在会话中关闭GPU加速计算功能。...

应用场景

GPU云服务器适用于视频转码、图片渲染、AI训练、AI推理、云端图形工作站等场景,神行工具包(DeepGPU)为了配合GPU云服务器的计算服务增强能力,也适用于所有AI训练场景和AI推理场景。本文主要介绍GPU云服务器和神行工具包(DeepGPU)的...

并行查询使用限制和兼容性问题

本文为您介绍并行查询的使用限制以及与串行执行结果可能不兼容的地方,帮助您正确使用并行查询功能。并行查询的使用限制 PolarDB 会持续迭代并行查询的能力,目前以下情况在并行计划中会有一定的局限性:查询非Innodb表,查询无法并行。...

产品优势

轻量应用服务器是快速搭建且易于管理的轻量级云服务器,提供基于单台服务器的应用部署,安全管理,运维监控等服务,一站式提升您的服务器使用体验和效率。本文主要介绍轻量应用服务器的优势以及核心功能对比。优势 简单易用 一键启动服务器...

使用ACK服务实现GPU的成本优化

GPU云服务器 该服务提供了GPU算力的弹性计算服务,具有超强的计算能力,可有效缓解计算压力,提升您的业务效率,帮助您提高企业竞争力。容器服务ACK 该服务提供了高性能且可伸缩的容器应用管理能力,支持企业级容器化应用的全生命周期管理...

功能特性

使用自定义镜像创建服务器 在ECS控制台复制轻量应用服务器共享的镜像 阿里建议您在轻量应用服务器的自定义镜像被共享到云服务器ECS后,先通过ECS管理控制台复制镜像,将镜像保存至云服务器ECS,再通过复制的自定义镜像创建ECS实例或更换...

云服务器ECS对比

如果您需要使用更丰富的实例类型,如通用型、计算型、大数据型、弹性裸金属服务器GPU/FPGA/NPU异构计算型等,支持高并发网站、视频编解码、大型游戏、复杂分布式集群应用等业务场景,请使用云服务器ECS产品。关于云服务器ECS的更多实例...

使用GPU拓扑感知调度(Pytorch版)

前提条件 已创建ACK Pro集群,且集群的实例规格类型选择为 GPU云服务器。更多信息,请参见 创建Kubernetes托管版集群。已安装 Arena。已安装GPU拓扑感知调度组件。系统组件版本满足以下要求。组件 版本要求 Kubernetes 1.18.8及以上版本 ...

GPU实例上使用RAPIDS加速图像搜索任务

对比两种方式的KNN向量检索速度,使用GPU加速的cuml KNN耗时791 ms,使用CPU的scikit-learn KNN耗时7min 34s。前者为后者的近600倍。验证两种方式的输出结果是否相同,输出结果为两个数组:distances:最小的K个距离值。本案例中搜索了...

接入Nvidia GPU监控数据

Nvidia GPU服务器中提供多项监控指标,您可以将Nvidia GPU服务器中的监控指标接入到全栈可观测应用中,进行可视化展示。前提条件 已创建实例。具体操作,请参见 创建实例。步骤一:安装NVIDIA GPU驱动 日志服务 使用 nvidia-smi 命令采集...

GPU调度概述

本文介绍调度GPU资源的不同方法,包括使用Kubernetes默认GPU调度...关于如何使用GPU拓扑感知调度,请参见以下文档:GPU拓扑感知调度概述 安装GPU拓扑感知组件 Tensorflow分布式训练使用GPU拓扑感知调度 Pytorch分布式训练使用GPU拓扑感知调度

弹性并行查询(Elastic Parallel Query)常见问题

使用/*+SET_VAR(max_parallel_degree=n)*/时,是否并行取决于查询是否路由到RO节点,以及优化所评估的查询代价和表数据量。更多详情请参见 通过Hint控制。在SQL语句中通过hint设定并行参数与控制台上设置是否有冲突?没有冲突,通过...

重启实例

GPU实例作为云服务器ECS的一类实例规格,保持了与ECS实例相同的管理操作。本文介绍如何通过控制台重启实例。前提条件 待重启的实例必须处于 运行中 状态。背景信息 重启操作是维护云服务器的一种常用方式,如系统更新、重启保存相关配置等...

什么是轻量应用服务器

轻量应用服务器(Simple Application Server)是可以快速搭建且易于管理的轻量级云服务器,面向单台服务器提供了一键部署应用、一站式域名解析、安全管理以及运维监控等服务。轻量应用服务器操作简单便捷,能让您快速上手部署简单的应用。...

使用须知

如果您需要选择其他的实例类型或者需要具有较高CPU性能负载的实例(例如,大型应用、视频编码等),请您使用云服务器ECS。更多信息,请参见 什么是云服务器ECS。轻量应用服务器支持资源升级。更多信息,请参见 升级配置。禁止使用轻量应用...

管理内网互通

轻量应用服务器使用阿里自动分配的专有网络VPC(Virtual Private Cloud)进行网络隔离,默认情况下不与云服务器ECS、数据库等其他处于专有网络VPC中的阿里产品内网互通,您可以通过设置内网互通实现互联互通。本文介绍如何设置内网...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
GPU云服务器 轻量应用服务器 云服务器 ECS 弹性公网IP 短信服务 人工智能平台 PAI
新人特惠 爆款特惠 最新活动 免费试用