本文详细介绍了如何使用LangStudio构建“Chat With Web Search”应用流。该应用流通过集成阿里云信息查询服务的实时搜索功能,为模型提供了额外的联网搜索能力,从而在处理用户输入的问题时,能够结合实时搜索结果提供更准确的回答。开发者可以基于该模板进行灵活扩展和二次开发,以满足特定场景的需求。
背景信息
在当前信息爆炸的环境中,获取实时且准确的信息对于许多应用场景来说至关重要。“联网搜索:Chat With Web Search”应用流结合了实时搜索技术与自然语言处理能力,提供了一种高效且智能的解决方案。通过集成阿里云信息查询服务的实时搜索功能,该应用流能够在用户提出问题的瞬间,迅速检索网络上的最新信息,进而为生成模型提供支持,使其能够输出更为准确和时效性强的回答。这种结合不仅提高了回答的准确性,还增强了对最新信息的获取能力。开发者可以利用LangStudio提供的这一模板进行灵活的扩展和定制,以便在金融、教育、新闻等需要实时信息更新的领域中实现更为专业的应用。
前提条件
联系客户经理,开通阿里云信息查询服务,详情请参见联网搜索【测试/正式】开通说明。
Chat With Web Search应用流需要使用阿里云信息查询服务中的标准搜索功能,对指定的查询语句进行检索。
创建一个RAM角色(在启动运行时和部署应用流时需要使用),并为其授予以下权限策略,具体操作请参见创建RAM角色并授权。
AliyunIQSFullAccess
AliyunOSSFullAccess
AliyunPAIFullAccess
同时,将该角色的可信实体修改为人工智能平台PAI和模型在线服务,具体操作请参见修改RAM角色的信任策略。以下是信任策略的示例配置:
{ "Statement": [ { "Action": "sts:AssumeRole", "Effect": "Allow", "Principal": { "Service": "pai.aliyuncs.com" } }, { "Action": "sts:AssumeRole", "Effect": "Allow", "Principal": { "Service": "eas.pai.aliyuncs.com" } } ], "Version": "1" }
1. (可选)部署LLM模型
Chat With Web Search应用流需要用到LLM模型服务,若您已有符合要求的模型服务,且服务支持OpenAI API,则可跳过此步骤,直接使用现有服务。本文以大模型DeepSeek-R1为例,您可以前往快速开始 > ModelGallery进行部署。更多部署详情,请参见一键部署DeepSeek-V3、DeepSeek-R1模型、模型部署及训练。
2. 创建LLM服务连接
本文创建的LLM模型服务连接基于快速开始 > Model Gallery中部署的模型服务(EAS服务)。更多其他类型的连接及详细说明,请参见服务连接配置。
进入LangStudio,选择工作空间后,在服务连接配置 > 模型服务页签下单击新建连接,创建通用LLM模型服务连接。
关键参数说明:
参数 | 说明 |
参数 | 说明 |
模型名称 | 当通过Model Gallery进行模型部署时,可通过模型详情页(在Model Gallery页单击模型卡片)查看模型名称的获取方法,详情请参见创建连接-模型服务。 |
服务提供方 |
|
3. 创建并运行应用流
进入LangStudio,选择工作空间后,在应用流页签下单击新建应用流,创建Chat With Web Search应用流。
启动运行时:单击右上角启动运行时并进行配置。注:在进行Python节点解析或查看更多工具时,需要保证运行时已启动。
关键参数说明:
实例RAM角色:选择自定义角色,同时RAM角色选择前提条件中创建的RAM角色。
开发应用流。应用流中的其余配置保持默认或根据实际需求进行配置,关键节点配置如下:
阿里云IQS-标准搜索:使用阿里云信息查询服务-标准搜索对指定的查询语句进行检索。
时间范围:选择搜索数据的时间范围。
大模型节点:调用大语言模型回答问题或对自然语言进行处理。
模型设置:选择2. 创建LLM服务连接中创建的连接。
对话历史:是否启用对话历史,将历史对话信息作为输入变量。
调试/运行:单击右上角运行, 开始执行应用流。
查看链路:单击生成答案下的查看链路,查看Trace详情或拓扑视图。
4. 部署应用流
在应用流开发页面,单击右上角部署,将应用流部署为EAS服务。部署参数其余配置保持默认或根据实际需求进行配置,关键参数配置如下:
资源部署 > 实例数:配置服务实例数。本文部署仅供测试使用,因此实例数配置为1。在生产阶段,建议配置多个服务实例,以降低单点故障的风险。
专有网络 > VPC:由于搜索功能依赖于阿里云信息查询服务,而该服务目前仅部署在张家口、北京和上海地域,因此如果您的应用流不在这些地域,则需要配置具备公网访问能力的VPC(EAS服务默认不可访问公网),详情请参见配置公网连接。
角色与权限 > 实例RAM角色:选择自定义角色,同时RAM角色选择前提条件中创建的RAM角色。
更多部署详情,请参见应用流部署。
5. 调用服务
部署成功后,跳转到PAI-EAS,在在线调试页签下配置并发送请求。请求Body中的Key与应用流中“开始节点”中的参数"对话输入"字段一致,本文使用默认字段question
。
更多调用方式(如API调用)及详细说明,请参见调用服务。
相关文档
- 本页导读 (1)
- 背景信息
- 前提条件
- 1. (可选)部署LLM模型
- 2. 创建LLM服务连接
- 3. 创建并运行应用流
- 4. 部署应用流
- 5. 调用服务
- 相关文档