基于LangStudio&阿里云信息查询服务搭建DeepSeek联网搜索应用流

更新时间:2025-03-14 08:57:23

本文详细介绍了如何使用LangStudio构建“Chat With Web Search”应用流。该应用流通过集成阿里云信息查询服务的实时搜索功能,为模型提供了额外的联网搜索能力,从而在处理用户输入的问题时,能够结合实时搜索结果提供更准确的回答。开发者可以基于该模板进行灵活扩展和二次开发,以满足特定场景的需求。

背景信息

在当前信息爆炸的环境中,获取实时且准确的信息对于许多应用场景来说至关重要。“联网搜索:Chat With Web Search”应用流结合了实时搜索技术与自然语言处理能力,提供了一种高效且智能的解决方案。通过集成阿里云信息查询服务的实时搜索功能,该应用流能够在用户提出问题的瞬间,迅速检索网络上的最新信息,进而为生成模型提供支持,使其能够输出更为准确和时效性强的回答。这种结合不仅提高了回答的准确性,还增强了对最新信息的获取能力。开发者可以利用LangStudio提供的这一模板进行灵活的扩展和定制,以便在金融、教育、新闻等需要实时信息更新的领域中实现更为专业的应用。

前提条件

  • 联系客户经理,开通阿里云信息查询服务,详情请参见联网搜索【测试/正式】开通说明

    Chat With Web Search应用流需要使用阿里云信息查询服务中的标准搜索功能,对指定的查询语句进行检索。

  • 创建一个RAM角色(在启动运行时和部署应用流时需要使用),并为其授予以下权限策略,具体操作请参见创建RAM角色并授权

    • AliyunIQSFullAccess

    • AliyunOSSFullAccess

    • AliyunPAIFullAccess

    同时,将该角色的可信实体修改为人工智能平台PAI和模型在线服务,具体操作请参见修改RAM角色的信任策略。以下是信任策略的示例配置:

    {
      "Statement": [
        {
          "Action": "sts:AssumeRole",
          "Effect": "Allow",
          "Principal": {
            "Service": "pai.aliyuncs.com"
          }
        },
        {
          "Action": "sts:AssumeRole",
          "Effect": "Allow",
          "Principal": {
            "Service": "eas.pai.aliyuncs.com"
          }
        }
      ],
      "Version": "1"
    }

1. (可选)部署LLM模型

Chat With Web Search应用流需要用到LLM模型服务,若您已有符合要求的模型服务,且服务支持OpenAI API,则可跳过此步骤,直接使用现有服务。本文以大模型DeepSeek-R1为例,您可以前往快速开始 > ModelGallery进行部署。更多部署详情,请参见一键部署DeepSeek-V3、DeepSeek-R1模型模型部署及训练

image

2. 创建LLM服务连接

本文创建的LLM模型服务连接基于快速开始 > Model Gallery中部署的模型服务(EAS服务)。更多其他类型的连接及详细说明,请参见服务连接配置

进入LangStudio,选择工作空间后,在服务连接配置 > 模型服务页签下单击新建连接,创建通用LLM模型服务连接。

image

关键参数说明:

参数

说明

参数

说明

模型名称

当通过Model Gallery进行模型部署时,可通过模型详情页(在Model Gallery页单击模型卡片)查看模型名称的获取方法,详情请参见创建连接-模型服务

服务提供方

  • PAI-EAS模型服务:本文使用PAI-EAS模型服务。此时EAS服务可选择1. (可选)部署LLM模型中部署的LLM服务。选择之后,base_urlapi_key会自动填充,分别对应已部署LLMVPC访问地址和Token。

  • 第三方模型服务:使用第三方模型服务,例如当第三方为DeepSeek官方服务时,base_urlhttps://api.deepseek.com,api_key可从DeepSeek 官网获取。

3. 创建并运行应用流

  1. 进入LangStudio,选择工作空间后,在应用流页签下单击新建应用流,创建Chat With Web Search应用流。

    image

  2. 启动运行时:单击右上角启动运行时并进行配置。注:在进行Python节点解析或查看更多工具时,需要保证运行时已启动。

    image

    关键参数说明:

    实例RAM角色:选择自定义角色,同时RAM角色选择前提条件中创建的RAM角色。

  3. 开发应用流。应用流中的其余配置保持默认或根据实际需求进行配置,关键节点配置如下:

    • 阿里云IQS-标准搜索:使用阿里云信息查询服务-标准搜索对指定的查询语句进行检索。

      • 时间范围:选择搜索数据的时间范围。

    • 大模型节点:调用大语言模型回答问题或对自然语言进行处理。

      • 模型设置:选择2. 创建LLM服务连接中创建的连接。

      • 对话历史:是否启用对话历史,将历史对话信息作为输入变量。

  4. 调试/运行:单击右上角运行, 开始执行应用流。

    image

  5. 查看链路:单击生成答案下的查看链路,查看Trace详情或拓扑视图。

    image

4. 部署应用流

在应用流开发页面,单击右上角部署,将应用流部署为EAS服务。部署参数其余配置保持默认或根据实际需求进行配置,关键参数配置如下:

  • 资源部署 > 实例数:配置服务实例数。本文部署仅供测试使用,因此实例数配置为1。在生产阶段,建议配置多个服务实例,以降低单点故障的风险。

  • 专有网络 > VPC:由于搜索功能依赖于阿里云信息查询服务,而该服务目前仅部署在张家口、北京和上海地域,因此如果您的应用流不在这些地域,则需要配置具备公网访问能力的VPC(EAS服务默认不可访问公网),详情请参见配置公网连接

  • 角色与权限 > 实例RAM角色:选择自定义角色,同时RAM角色选择前提条件中创建的RAM角色。

更多部署详情,请参见应用流部署

5. 调用服务

部署成功后,跳转到PAI-EAS,在在线调试页签下配置并发送请求。请求Body中的Key与应用流中“开始节点”中的参数"对话输入"字段一致,本文使用默认字段question

image

更多调用方式(如API调用)及详细说明,请参见调用服务

相关文档

  • 本页导读 (1)
  • 背景信息
  • 前提条件
  • 1. (可选)部署LLM模型
  • 2. 创建LLM服务连接
  • 3. 创建并运行应用流
  • 4. 部署应用流
  • 5. 调用服务
  • 相关文档