基于 LangStudio 的“文档内容洞察助手”模板,开发者可快速构建集成文档解析、智能问答和深度分析功能的 AI 应用,自动解析文档内容并基于文档进行精准问答,同时生成专业的深度分析报告。开发者可以基于该模板进行灵活扩展和二次开发,以满足合同分析、研究报告解读、技术文档问答等特定场景的需求。
工作原理
核心概念
在开始之前,请了解本方案涉及的核心产品和服务在架构中扮演的角色:
LangStudio:是核心的开发与编排平台,大部分的应用构建与调试工作都在此完成。
AI搜索开放平台:提供文档解析能力,将非结构化的文档(如PDF、Word)转换为可供大模型理解的结构化文本。
通用LLM模型服务:提供核心的自然语言理解与生成能力,是问答和分析功能的基础。本方案支持任何兼容 OpenAI API 格式的模型服务,例如阿里云 PAI-EAS 部署的通义千问模型。
MCP搜索服务:一个由 Function AI(阿里云函数计算的AI应用托管服务)部署的搜索工具,作为 Agent 的外部知识库。当本地文档无法回答问题时,Agent 会调用此服务搜索互联网。
PAI-EAS:模型在线服务平台,用于将 LangStudio 中开发好的应用流一键部署为稳定、可扩展的在线API服务。
步骤一:创建服务连接
进入LangStudio,选择工作空间后,需要创建以下三种服务连接,用于应用流调用文档解析、大模型和网络搜索等外部服务。
1. 创建AI搜索开放平台模型服务连接
目的:用于连接文档解析服务。
2. 创建通用LLM模型服务连接
目的:用于连接大语言模型服务。
准备LLM服务:应用流需要调用大语言模型(LLM)服务来提供问答和分析能力。可以根据自身情况选择以下任一路径。
路径一:使用已有LLM服务。如已有支持 OpenAI API 格式的LLM服务(例如其他云厂商提供或自建的服务),请准备好其接入地址和认证密钥。
路径二:在PAI-EAS上部署新服务。如果没有可用的LLM服务,可通过 PAI-EAS 快速部署一个,例如通义千问(Qwen)系列模型。
创建连接
在连接 > 模型服务页签下,单击新建连接。连接类型选择通用LLM模型服务。
PAI-EAS模型服务可直接下拉选择,否则请填写模型名称、base_url和api_key。
3. 创建搜索MCP服务连接
目的:用于连接互联网搜索服务。配置后,当上传的文档内容不足以回答问题时,系统将自动搜索互联网获取补充信息。
本文以使用阿里云 Function AI 提供的搜索服务为例。
部署MCP搜索服务
在LangStudio的页签下,搜索并选择通晓。

按照页面提示获取API KEY 并填入。
单击一键部署 MCP Server。系统将通过 Function AI 自动为您创建一个搜索服务。请等待部署完成。
创建连接
在 页签下,单击新建连接。
连接类型选择Function AI,然后下拉选择上一步部署的MCP服务。
单击确定完成连接创建。
步骤二:创建并配置应用流
1. 创建运行时
目的:为应用流的开发和调试提供计算环境。
在 LangStudio 的运行时页签,单击新建运行时。
填写运行时名称,其他参数保持默认。
单击确定,等待运行时启动成功。
2. 基于模板创建应用流
目的:从“文档内容洞察助手”模板快速初始化一个应用。
在找到文档内容洞察助手,单击新建应用流。
在弹出的对话框中,选择运行时为上一步创建的运行时实例。工作路径将自动填充。
单击确定。
3. 配置关键节点
目的:将应用流中的节点与创建的服务连接关联起来。系统会自动跳转到应用流的画布页面。请依次检查并配置以下关键节点,其余节点保持默认即可,更多节点详情,请参见预置组件说明。
文档解析节点:对上传的文档进行结构化解析,提取文本内容和元数据信息。
模型设置:选择步骤一中创建的AI搜索开放平台连接。
文档问答助手节点:核心的智能问答 Agent,负责理解问题并调用工具(文档或搜索)来回答。
模型设置:选择步骤一创建的通用LLM连接。
MCP服务配置:选择步骤一创建的搜索MCP服务连接。
重要必须配置MCP服务,否则运行会报错。
对话历史:可按需开启,用于支持多轮对话。
分析报告生成节点:基于问答结果,使用LLM生成文档深度分析报告。
模型设置:选择步骤一创建的通用LLM连接。
4. 在线调试
目的:在部署前验证应用流的逻辑和效果是否符合预期。
在画布右上角,单击运行。
在调试面板中,通过本地上传或输入URL上传文档(文件类型说明请参见文件类型输入输出)。支持的文件类型包括
.pdf、.docx、.txt、.md等。在问题输入框中输入问题,例如“这份合同的主要条款是什么?”。
应用流会实时提示中间处理状态,单次回答完成后自动折叠,支持再次展开查看。

执行完成后,可在对话框中看到答案。单击答案下方的查看其他输出,可以查看或下载生成的分析报告。
若要分析执行细节,可单击答案下方的查看链路,查看Trace详情或拓扑视图。
步骤三:部署为在线服务
目的:将调试通过的应用流一键部署为 PAI-EAS 在线服务,以便通过 API 集成到您的业务系统中。
在应用流画布的右上角,单击部署。
在弹出的对话框中,配置以下参数:
服务创建方式:选择新建服务。
服务名称:自定义服务名称。
资源配置:根据预估的访问量选择合适的资源组和资源规格。
专有网络配置:如果服务需要访问公网资源,那么服务需要配置专有网络,详情请参见网络配置。
单击确定。在跳转的部署流程页面中单击提交部署。
单击右上角跳转到EAS,等待服务状态变为运行中,此过程可能需要5-10分钟。
步骤四:调用已部署的服务
服务部署成功后,可以通过标准的 HTTP 请求来调用它。在服务详情的在线调试页签进行测试。
请求体是一个 JSON 对象,其 key 必须与应用流开始节点中定义的输入参数一致。对于本模板,参数为 question 和 document。
question(String): 输入的问题。document(File): 要分析的文档。至少需要提供source_uri属性值,即文件存储路径,支持 OSS URI 以及 HTTP/HTTPS 链接,详情请参见文件类型输入输出。
请求体示例如下:
{
"question": "这份合同的主要条款是什么?",
"document": {
"source_uri": "oss://your-bucket-name/path/to/your-document.pdf"
},
"chat_history":[],
}资源清理
为避免产生不必要的费用,请在完成实验后及时清理所有创建的资源:
PAI-EAS 在线服务:在 PAI-EAS 控制台停止并删除部署的应用服务。
MCP 搜索服务:在 Function AI 控制台删除为 MCP 搜索服务创建的应用和函数。
LangStudio 运行时:在 LangStudio 的运行时页签停止并删除运行时实例。