使用EAS一键部署Llama3模型

本文为您介绍如何通过EAS一键部署Llama3的开源大模型服务,以及该服务支持的WebUI界面化操作。

背景信息

Llama-3开源80亿参数和700亿参数两个尺寸,同步开源基座和对话模型。Llama-3在模型架构上继承前代整体结构,将上下文长度从4K增加到了8K。在具体性能评测中,Llama-3基座模型和对话模型相比前代模型,在学科能力、推理能力、知识能力、理解能力等多个能力维度的评测集上均获得很高的效果提升。

部署EAS服务

  1. 进入模型在线服务页面。

    1. 登录PAI控制台

    2. 在左侧导航栏单击工作空间列表,在工作空间列表页面中单击待操作的工作空间名称,进入对应工作空间内。

    3. 在工作空间页面的左侧导航栏选择模型部署>模型在线服务(EAS),进入模型在线服务页面。image

  2. 模型在线服务(EAS)页面,单击部署服务,然后在场景化模型部署区域,单击LLM大语言模型部署

  3. 部署LLM大语言模型页面,配置以下关键参数,其他参数使用默认配置。

    参数

    描述

    服务名称

    自定义服务名称。本方案使用的示例值为:chat_llama3_demo

    模型来源

    选择开源公共模型

    模型类别

    选择llama3-8b

    资源配置选择

    推荐使用华北2(北京)地域,实例规格推荐使用ml.gu7i.c8m30.1-gu30

    说明

    如果上述资源库存不足,也可使用ecs.gn6i-c24g1.12xlarge规格。

    image

  4. 单击部署,持续时间大约为3分钟,即可完成模型部署。

    服务状态运行中时,表示服务部署成功。

启动WebUI进行模型推理

  1. 单击目标服务的服务方式列下的查看Web应用ab4a0f8d6e810dd12c22142d271499d0

  2. WebUI页面,进行模型推理验证。

    在对话框下方的输入界面输入对话内容,例如请提供一个理财学习计划,单击Send,即可开始对话。image

相关文档

若需了解ChatLLM-WebUI的重要版本发布信息,请参见ChatLLM-WebUI版本发布详情