本文为您汇总了异构计算产品的最佳实践,您可以根据自身业务场景选择相应的操作参考。
GPU云服务器
以搭建TensorFlow深度学习框架为例,介绍如何在GPU实例上部署NGC环境以实现深度学习开发环境的预安装。
将eRDMA功能引入容器(Docker)环境提供更快的数据传输和通信效率,适用于在容器中需要大规模数据传输和高性能网络通信的应用场景,本教程介绍如何使用eRDMA镜像在GPU实例上快速配置eRDMA。
部署TensorRT-LLM开源推理加速库后,帮助您快速且方便地构建大语言模型的推理环境,主要应用在智能对话系统、文本分析等自然语言处理业务场景。本教程介绍如何在GPU实例上安装和使用TensorRT-LLM。
选用阿里云提供的DeepGPU-LLM容器镜像,帮助您快速构建大语言模型的推理环境,主要应用在智能对话系统、文本分析、编程辅助等自然语言处理业务场景。本教程介绍如何在GPU实例上使用DeepGPU-LLM容器镜像构建大语言模型的推理服务。
部署vLLM开源推理框架后,帮助您快速且方便地构建大语言模型的推理环境,主要应用在智能对话系统、文本分类或分析等自然语言处理业务场景,本教程介绍如何在GPU实例上使用vLLM容器镜像来快速构建大语言模型的推理服务。
对于需要文本生成图像的业务场景,在GPU实例上部署SD-WebUI容器镜像后可以提供更快的计算速度和更高的推理性能。本教程介绍如何在GPU实例上部署SD-WebUI容器镜像以快速将文本生成图像。
集群极速部署工具FastGPU
使用FastGPU一键部署并训练应用:在开发者实验室中,阿里云为您提供了FastGPU训练场景的相关实验教程,您可以通过教程提供的真实环境,体验并完成所需教程的学习和实验。
FPGA云服务器
FaaS F3实例开发指引最佳实践
介绍RTL(Register Transfer Level)开发平台所使用的工程模式及目录,并提供示例框架帮助您理解并使用RTL。
FaaS F3 SDAccel开发环境以Xilinx SDAccel dynamic 5.0版本为原型,您可以基于OpenCL进行开发以及应用。本教程简要介绍F3实例的SDAccel开发环境。
介绍基于F3实例的RTL(Register Transfer Level)开发流程以及常见问题。
在F3实例上使用OpenCL(Open Computing Language)制作镜像文件,并烧录到FPGA芯片中。
在F3实例上使用Vitis 2020.1制作镜像文件,并烧录到FPGA芯片中。