灵骏主要面向图形图像识别、自然语言处理、搜索广告推荐、通用大模型等大规模分布式的AI研发场景,适用于自动驾驶、金融风控、药物研发、科学智能、元宇宙、互联网和ISV等行业。
大规模分布式训练
高性能打造AI进化底座。
超大规模GPU算力系统,全对等网络架构,全资源池化,可以搭配PAI(机器学习平台)使用,支持多种训练框架(Pytorch、TensorFlow、Caffe、Keras、Xgboost、Mxnet等),可以满足多种规模的AI训练和推理业务。
AI基础设施。
平滑扩容。满足不同规模GPU算力需求,平滑扩容,性能线性拓展。
智能数据加速。针对AI训练场景提供数据智能加速,主动预热训练所需数据,提升训练效率。
更高的资源利用率。支持异构资源细粒度管控,提升资源周转效率。
自动驾驶
训练仿真,一站打通。
全场景支持,安全合规。
丰富的部署和调度策略。
多种GPU资源调度策略,保证训练任务高效执行。
高性能、高吞吐的存储能力。
文件存储CPFS(Cloud Paralleled File System)搭配RDMA网络架构,保证训练数据供给和计算IO;并可使用OSS分级存储降低归档数据存储成本。
同时支持训练和仿真场景。
融合算力智能供应,同时支持训练仿真两种场景,从协同模式上提升迭代效率,降低数据迁移成本。
科学智能
融合算力,多元创新。
深化协同拓展创新边界。
拓展提升创新上限。
基于数据中心超大规模RDMA“高速网”和通信流控技术,实现端到端微秒级通信时延,超大规模线性拓展可打造万卡级并行算力。
融合生态,拓展创新边界。
支持HPC和AI任务融合调度,为科研和AI提供统一协同的底座支撑,促进技术生态融合。
云上科研,普惠算力。
支持云原生和容器化的AI和HPC应用生态,资源深度共享,普惠的智能算力触手可得。
文档内容是否对您有帮助?