面对复杂研究课题,传统的手动搜索耗时费力,而大模型结合联网搜索的功能也往往难以进行深度、系统的分析。深入研究模型(Qwen-Deep-Research)能自动规划研究步骤、执行多轮的深入搜索与信息整合,并最终生成一份结构化的研究报告。
本文档仅适用于“中国内地(北京)”地域。如需使用模型,需使用“中国内地(北京)”地域的API Key。
快速开始
您需要已获取API Key并配置API Key到环境变量。如果通过SDK调用,还需要安装DashScope SDK。
模型采用两步式工作流程:反问确认(明确研究范围)和深入研究(执行搜索并生成报告)。以下示例展示了包含两个步骤的完整调用流程。
模型目前仅可通过 DashScope SDK 调用,暂不支持 Java 版 DashScope SDK,也不支持 OpenAI 兼容接口调用。
import os
import dashscope
# 配置API Key
# 若没有配置环境变量,请用百炼API Key将下行替换为:API_KEY = "sk-xxx"
API_KEY = os.getenv('DASHSCOPE_API_KEY')
def call_deep_research_model(messages, step_name):
print(f"\n=== {step_name} ===")
try:
responses = dashscope.Generation.call(
api_key=API_KEY,
model="qwen-deep-research",
messages=messages,
# qwen-deep-research模型目前仅支持流式输出
stream=True
# incremental_output=True 使用增量输出请添加此参数
)
return process_responses(responses, step_name)
except Exception as e:
print(f"调用API时发生错误: {e}")
return ""
# 显示阶段内容
def display_phase_content(phase, content, status):
if content:
print(f"\n[{phase}] {status}: {content}")
else:
print(f"\n[{phase}] {status}")
# 处理响应
def process_responses(responses, step_name):
current_phase = None
phase_content = ""
research_goal = ""
web_sites = []
references = []
keepalive_shown = False # 标记是否已经显示过KeepAlive提示
for response in responses:
# 检查响应状态码
if hasattr(response, 'status_code') and response.status_code != 200:
print(f"HTTP返回码:{response.status_code}")
if hasattr(response, 'code'):
print(f"错误码:{response.code}")
if hasattr(response, 'message'):
print(f"错误信息:{response.message}")
print("请参考文档:https://help.aliyun.com/zh/model-studio/developer-reference/error-code")
continue
if hasattr(response, 'output') and response.output:
message = response.output.get('message', {})
phase = message.get('phase')
content = message.get('content', '')
status = message.get('status')
extra = message.get('extra', {})
# 阶段变化检测
if phase != current_phase:
if current_phase and phase_content:
# 根据阶段名称和步骤名称来显示不同的完成描述
if step_name == "第一步:模型反问确认" and current_phase == "answer":
print(f"\n 模型反问阶段完成")
else:
print(f"\n {current_phase} 阶段完成")
current_phase = phase
phase_content = ""
keepalive_shown = False # 重置KeepAlive提示标记
# 根据阶段名称和步骤名称来显示不同的描述
if step_name == "第一步:模型反问确认" and phase == "answer":
print(f"\n 进入模型反问阶段")
else:
print(f"\n 进入 {phase} 阶段")
# 处理Answer阶段的references信息
if phase == "answer":
if extra.get('deep_research', {}).get('references'):
new_references = extra['deep_research']['references']
if new_references and new_references != references: # 避免重复显示
references = new_references
print(f"\n 引用来源 ({len(references)} 个):")
for i, ref in enumerate(references, 1):
print(f" {i}. {ref.get('title', '无标题')}")
if ref.get('url'):
print(f" URL: {ref['url']}")
if ref.get('description'):
print(f" 描述: {ref['description'][:100]}...")
print()
# 处理WebResearch阶段的特殊信息
# 注意:qwen-deep-research-2025-12-15模型使用streamingThinking状态
# 替代streamingQueries和streamingWebResult
if phase == "WebResearch":
if extra.get('deep_research', {}).get('research'):
research_info = extra['deep_research']['research']
# 处理streamingThinking(快照模型)或streamingQueries(主线模型)状态
if status in ("streamingThinking", "streamingQueries"):
if 'researchGoal' in research_info:
goal = research_info['researchGoal']
if goal:
research_goal += goal
print(f"\n 研究目标: {goal}", end='', flush=True)
# 处理streamingWebResult状态(主线模型)
# 快照模型使用streamingThinking合并了此状态
elif status == "streamingWebResult":
if 'webSites' in research_info:
sites = research_info['webSites']
if sites and sites != web_sites: # 避免重复显示
web_sites = sites
print(f"\n 找到 {len(sites)} 个相关网站:")
for i, site in enumerate(sites, 1):
print(f" {i}. {site.get('title', '无标题')}")
print(f" 描述: {site.get('description', '无描述')[:100]}...")
print(f" URL: {site.get('url', '无链接')}")
if site.get('favicon'):
print(f" 图标: {site['favicon']}")
print()
# 处理WebResultFinished状态
elif status == "WebResultFinished":
print(f"\n 网络搜索完成,共找到 {len(web_sites)} 个参考信息源")
if research_goal:
print(f" 研究目标: {research_goal}")
# 累积内容并显示
if content:
phase_content += content
# 实时显示内容
print(content, end='', flush=True)
# 显示阶段状态变化
if status and status != "typing":
print(f"\n 状态: {status}")
# 显示状态说明
if status == "streamingThinking":
print(" → 正在拆解研究任务并总结网页内容(WebResearch阶段)")
elif status == "streamingQueries":
print(" → 正在生成研究目标和搜索查询(WebResearch阶段)")
elif status == "streamingWebResult":
print(" → 正在执行搜索、网页阅读和代码执行(WebResearch阶段)")
elif status == "WebResultFinished":
print(" → 网络搜索阶段完成(WebResearch阶段)")
# 当状态为finished时,显示token消耗情况
if status == "finished":
if hasattr(response, 'usage') and response.usage:
usage = response.usage
print(f"\n Token消耗统计:")
print(f" 输入tokens: {usage.get('input_tokens', 0)}")
print(f" 输出tokens: {usage.get('output_tokens', 0)}")
print(f" 请求ID: {response.get('request_id', '未知')}")
if phase == "KeepAlive":
# 只在第一次进入KeepAlive阶段时显示提示
if not keepalive_shown:
print("当前步骤已经完成,准备开始下一步骤工作")
keepalive_shown = True
continue
if current_phase and phase_content:
if step_name == "第一步:模型反问确认" and current_phase == "answer":
print(f"\n 模型反问阶段完成")
else:
print(f"\n {current_phase} 阶段完成")
return phase_content
def main():
# 检查API Key
if not API_KEY:
print("错误:未设置 DASHSCOPE_API_KEY 环境变量")
print("请设置环境变量或直接在代码中修改 API_KEY 变量")
return
print("用户发起对话:研究一下人工智能在教育中的应用")
# 第一步:模型反问确认
# 模型会分析用户问题,提出细化问题来明确研究方向
messages = [{'role': 'user', 'content': '研究一下人工智能在教育中的应用'}]
step1_content = call_deep_research_model(messages, "第一步:模型反问确认")
# 第二步:深入研究
# 基于第一步的反问内容,模型会执行完整的研究流程
messages = [
{'role': 'user', 'content': '研究一下人工智能在教育中的应用'},
{'role': 'assistant', 'content': step1_content}, # 包含模型的反问内容
{'role': 'user', 'content': '我主要关注个性化学习和智能评估这两个方面'}
]
call_deep_research_model(messages, "第二步:深入研究")
print("\n 研究完成!")
if __name__ == "__main__":
main()
echo "第一步:模型反问确认"
curl --location 'https://dashscope.aliyuncs.com/api/v1/services/aigc/text-generation/generation' \
--header 'X-DashScope-SSE: enable' \
--header "Authorization: Bearer $DASHSCOPE_API_KEY" \
--header 'Content-Type: application/json' \
--data '{
"input": {
"messages": [
{
"content": "研究一下人工智能在教育中的应用",
"role": "user"
}
]
},
"model": "qwen-deep-research"
}'
echo -e "\n\n"
echo "第二步:深入研究"
curl --location 'https://dashscope.aliyuncs.com/api/v1/services/aigc/text-generation/generation' \
--header 'X-DashScope-SSE: enable' \
--header "Authorization: Bearer $DASHSCOPE_API_KEY" \
--header 'Content-Type: application/json' \
--data '{
"input": {
"messages": [
{
"content": "研究一下人工智能在教育中的应用",
"role": "user"
},
{
"content": "请告诉我您希望重点研究人工智能在教育中的哪些具体应用场景?",
"role": "assistant"
},
{
"content": "我主要关注个性化学习方面",
"role": "user"
}
]
},
"model": "qwen-deep-research"
}'
模型列表
|
模型名称 |
上下文长度 (Token) |
最大输入 (Token) |
最大输出 (Token) |
|
qwen-deep-research |
1,000,000 |
997,952 |
32,768 |
|
qwen-deep-research-2025-12-15 |
qwen-deep-research为主线模型,持续更新优化。qwen-deep-research-2025-12-15为快照版本,在研究深度和报告质量上更优,且额外支持MCP 工具调用能力。两个模型均支持图片输入。两者独立计费。
核心能力
模型通过 phase 和 status 字段展示工作流程。phase 表示当前执行的核心任务,status 表示该任务的内部进度。
反问确认与报告生成 (phase: "answer")
模型分析用户初始问题,提出细化问题确认研究范围。在生成最终报告时,此阶段复用。
状态变化:
-
typing: 正在生成文本内容 -
finished: 文本内容生成完毕
研究规划 (phase: "ResearchPlanning")
根据用户需求制定研究大纲。
状态变化:
-
typing: 正在生成研究计划 -
finished: 研究计划制定完成
网络搜索 (phase: "WebResearch")
执行多轮搜索并处理信息。每轮搜索结束时返回WebResultFinished状态,整个阶段结束后返回finished状态。
状态变化:
-
streamingThinking: 正在拆解研究任务并总结网页内容(qwen-deep-research-2025-12-15模型专用,替代streamingQueries和streamingWebResult) -
streamingQueries: 正在生成搜索查询词(仅qwen-deep-research模型) -
streamingWebResult: 正在执行网络搜索并分析网页内容(仅qwen-deep-research模型) -
WebResultFinished: 单轮搜索结束 -
finished: 网络搜索阶段整体完成
连接保持 (phase: "KeepAlive")
在长任务间隙发送,维持连接。此阶段不包含业务内容,可忽略。
图片输入
深入研究模型支持在用户消息中传入图片,模型能理解图片内容并结合图片进行深入研究分析。传入图片时,content字段需使用数组格式,包含image和text对象。
-
支持 JPEG、PNG、BMP、WEBP 等常见格式,单张图片不超过 10MB。
-
单次请求最多传入 5 张图片,支持公网 URL 和 Base64 编码两种传入方式。
-
响应格式与纯文本请求一致,模型会结合图片内容进行研究并返回报告。
请求示例
import os
import dashscope
API_KEY = os.getenv('DASHSCOPE_API_KEY')
messages = [
{
"role": "user",
"content": [
{"image": "https://example.aliyuncs.com/example.png"},
{"text": "分析这张图表中的数据趋势,并对关键发现进行深入研究"}
]
}
]
responses = dashscope.Generation.call(
api_key=API_KEY,
model="qwen-deep-research",
messages=messages,
stream=True
)
for response in responses:
if hasattr(response, 'output') and response.output:
message = response.output.get('message', {})
content = message.get('content', '')
if content:
print(content, end='', flush=True)
curl --location 'https://dashscope.aliyuncs.com/api/v1/services/aigc/text-generation/generation' \
--header 'X-DashScope-SSE: enable' \
--header "Authorization: Bearer $DASHSCOPE_API_KEY" \
--header 'Content-Type: application/json' \
--data '{
"input": {
"messages": [
{
"content": [
{"image": "https://example.aliyuncs.com/example.png"},
{"text": "分析这张图表中的数据趋势,并对关键发现进行深入研究"}
],
"role": "user"
}
]
},
"model": "qwen-deep-research"
}'MCP 工具调用
MCP 工具调用仅qwen-deep-research-2025-12-15模型支持,主线模型qwen-deep-research不支持此功能。
qwen-deep-research-2025-12-15模型支持通过research_tools参数接入 MCP(Model Context Protocol)服务,使模型在研究过程中能够调用外部工具进行信息检索。响应格式与标准调用一致,模型会在 WebResearch 阶段通过 MCP Server 调用指定工具。
research_tools的完整参数说明和 MCP 工具规范请参考Qwen-Deep-Research 深入研究模型。
请求示例
import os
import dashscope
API_KEY = os.getenv('DASHSCOPE_API_KEY')
messages = [
{
"role": "user",
"content": "使用知识库搜索近期发布的产品更新公告,并整理成研究报告"
}
]
responses = dashscope.Generation.call(
api_key=API_KEY,
model="qwen-deep-research-2025-12-15",
messages=messages,
stream=True,
enable_feedback=False,
research_tools=[{
"type": "mcp",
"server_label": "my-server",
"server_url": "https://your-mcp-server.example.com/sse",
"allowed_tools": ["search", "fetch"],
"authentication": {
"bearer": "your_jwt_token_here"
}
}]
)
for response in responses:
if hasattr(response, 'output') and response.output:
message = response.output.get('message', {})
content = message.get('content', '')
if content:
print(content, end='', flush=True)
curl --location 'https://dashscope.aliyuncs.com/api/v1/services/aigc/text-generation/generation' \
--header 'X-DashScope-SSE: enable' \
--header "Authorization: Bearer $DASHSCOPE_API_KEY" \
--header 'Content-Type: application/json' \
--data '{
"input": {
"messages": [
{
"content": "使用知识库搜索近期发布的产品更新公告,并整理成研究报告",
"role": "user"
}
]
},
"model": "qwen-deep-research-2025-12-15",
"parameters": {
"enable_feedback": false,
"research_tools": [{
"type": "mcp",
"server_label": "my-server",
"server_url": "https://your-mcp-server.example.com/sse",
"allowed_tools": ["search", "fetch"],
"authentication": {
"bearer": "your_jwt_token_here"
}
}]
}
}'计费说明
|
模型名称 |
输入成本 (每千Token) |
输出成本 (每千Token) |
免费额度 |
|
qwen-deep-research |
0.054元 |
0.163元 |
无免费额度 |
|
qwen-deep-research-2025-12-15 |
0.079元 |
0.236元 |
无免费额度 |
计费方式:计费基于输入和输出Token总量。输入Token包含用户消息内容和模型内置的系统提示词。输出Token包含反问确认、研究计划、研究目标、搜索查询和最终研究报告等所有生成内容。
应用于生产环境
流式输出处理
模型仅支持流式输出(stream=True)。处理响应时需正确解析 phase 和 status 字段,判断当前阶段和完成状态。
错误处理
检查响应状态码,非200状态需处理错误。流式响应早期阶段某些响应块可能只包含元数据,后续块会包含实际内容。
Token消耗监控
在 status 为 finished 时,通过 response.usage 获取Token消耗统计,包括输入Tokens、输出Tokens和请求ID。
连接管理
模型可能在长任务间隙发送 KeepAlive 阶段响应,用于维持连接。可忽略此阶段内容,继续处理后续响应。
常见问题
-
为什么某些响应块的
output为空?在流式响应的早期阶段,某些响应块可能只包含元数据信息,后续块会包含实际内容。
-
如何判断某个阶段是否完成?
当
status字段变为 "finished" 时,表示当前阶段完成。 -
模型是否支持OpenAI兼容接口调用?
模型目前暂不支持通过OpenAI兼容接口调用。
-
模型的输入与输出Token数量是如何计算的?
输入Token包含用户发送的消息内容和模型内置的系统提示词,包括用户问题、用户回答和系统提示词。输出Token包含模型在整个研究过程中生成的所有内容,包括反问确认内容、研究计划、研究目标、搜索查询和最终研究报告。
-
qwen-deep-research 和 qwen-deep-research-2025-12-15 有什么区别?
qwen-deep-research是主线模型,持续更新。qwen-deep-research-2025-12-15是快照版本,效果更优,额外支持 MCP 工具调用能力。两个模型均支持图片输入。两者独立计费,快照版本的价格略高于主线版本。 -
如何传入图片进行研究?
将
content字段设为数组格式,包含{"image": "图片URL"}和{"text": "文本描述"}。两个模型均支持图片输入。 -
如何跳过反问确认,让模型直接进入研究?
在
parameters中设置enable_feedback为false即可跳过反问确认阶段,模型将直接进入研究流程。
API参考
关于Qwen-Deep-Research模型的输入与输出参数,请参考Qwen-Deep-Research 深入研究模型。
错误码
如果模型调用失败并返回报错信息,请参见错误信息进行解决。
限流
模型限流触发条件请参考:限流。