快速搭建AI对话机器人

更新时间:

本文介绍如何使用阿里云GPU云服务器,基于ChatGLM-6B语言模型快速搭建AI对话机器人。

背景信息

ChatGLM-6B是一个开源的、支持中英双语对话的语言模型,它基于General Language Model(GLM)架构,具有62亿参数;并使用了和ChatGPT相似的技术,经过约1 TB标识符的中英双语训练,辅以监督微调、反馈自助、人类反馈强化学习等技术的加持,能够生成符合人类偏好的回答。

本文基于阿里云GPU云服务器和ChatGLM-6B语言模型,指导您如何快速搭建一个AI对话机器人。

image..png

重要
  • 阿里云不对第三方模型“ChatGLM-6B”的合法性、安全性、准确性进行任何保证,阿里云不对由此引发的任何损害承担责任。

  • 您应自觉遵守第三方模型的用户协议、使用规范和相关法律法规,并就使用第三方模型的合法性、合规性自行承担相关责任。

操作步骤

说明

您可以通过一键部署 快速完成以下操作。

创建ECS实例

  1. 前往实例创建页

  2. 按照界面提示完成参数配置,创建一台ECS实例。

    需要注意的参数如下,其他参数的配置,请参见自定义购买实例

    • 实例:选择实例规格为ecs.gn7i-c16g1.4xlarge

    • 镜像:本文使用已部署好推理所需环境的云市场镜像,名称为ai-inference-solution

      image

    • 公网IP:选中分配公网IPv4地址,带宽计费模式选择按使用流量,带宽峰值设置为10 Mbps。

      说明

      如果您需要自行下载模型测试,建议将带宽峰值设置为100 Mbps,以加快模型下载速度。

      2023-06-13_11-45-40..png

  3. 添加安全组规则。

    在ECS实例安全组的入方向添加安全组规则并放行50001端口。具体操作,请参见添加安全组规则

    开放50001端口..png

  4. 创建完成后,在ECS实例页面,获取公网IP地址。

    说明

    公网IP地址用于生成图片测试时访问WebUI服务。

    image

下载模型

  1. 使用root用户远程连接ECS实例。

    该市场镜像中,运行环境及模型都安装在/root目录下,连接实例时需使用root用户。具体操作,请参见通过密码或密钥认证登录Linux实例

  2. 执行如下命令,下载ChatGLM-6B模型。

    cd /root/chatglm
    git clone https://www.modelscope.cn/ZhipuAI/ChatGLM-6B.git chatglm-6b
    git -C chatglm-6b checkout v1.0.16
    sed -i '33c from .configuration_chatglm import ChatGLMConfig' chatglm-6b/modeling_chatglm.py

    模型下载大约需要35分钟,回显信息如下图所示时,表示模型已下载完成。

    image..png

进行AI对话

  1. 执行如下命令,开启WebUI服务。

    cd /root/chatglm/ChatGLM-6B
    streamlit run web_demo2.py --server.port 50001 &

    当出现如下回显的时候,表示启动成功。

    image..png

  2. 在浏览器地址栏输入http://<ECS公网IP地址>:50001,进入Web页面。

  3. 用户命令输入对话框中,输入对话内容(例如中国有几个直辖市?),单击发送,即可开始AI对话。

    image..png

了解更多AIGC实践和GPU优惠

活动入口立即开启AIGC之旅

image..png

反馈与建议

如果您在使用教程或实践过程中有任何问题或建议,可以加入客户钉钉群(钉钉群号:23210030587)与我们的工程师线上交流,将有专人跟进您的问题和建议。

image..png