Dify 是一个开源的大模型应用开发平台,您可以基于阿里云百炼提供的模型 API 来构建大模型应用。
前提条件
1. 配置模型
1.1. 安装模型供应商
前往Dify 市场,在模型下找到通义千问并安装插件(安装最新版0.0.26会报错 Internal Server Error,建议您安装0.0.25版本的插件)。
下载指定版本的插件请前往通义千问插件详情页,单击右侧版本历史,安装0.0.25 版本的插件。
使用阿里云百炼提供的 DeepSeek 模型也请使用通义千问插件。
不建议您通过 OpenAI-API-compatible 方式配置模型,部分模型可能无法正常使用。
1.2. 配置 API Key
单击页面右上角的头像-设置,在模型供应商处找到通义千问卡片,在卡片的 API-KEY 设置界面填入您的阿里云百炼 API Key。
1.3. 选择模型
单击通义千问卡片中的显示模型,打开您需要使用的模型开关。
2. 开始使用
Dify 具有多种大模型应用类型,请选择您使用的类型进行参考。
聊天助手/Agent
创建一个聊天助手或Agent
在工作室创建一个聊天助手或Agent并进入。
选择模型
在应用页面右上角可以选择模型,此处选择通义千问下的qwen-plus-latest(Qwen3),打开思考模式并设置为True。
对话测试
输入“你是谁”,模型会在思考后进行回答。
Qwen3 模型提供了通过提示词开启/关闭思考模式的功能,您可以在提示词中加入 /no_think,模型将关闭思考模式。
您也可以使用 Qwen-VL 或 QVQ 模型针对图片进行提问。在选择视觉模型后界面左侧会出现视觉开关,打开即可在右侧的对话框输入图片。
Chatflow/工作流
创建一个Chatflow或者工作流
在工作室创建一个Chatflow或者工作流并进入。
添加LLM节点
在画布中添加一个LLM节点,选中节点进入编辑界面,选择您需要使用的模型。此处选择qwen-plus-2025-04-28(Qwen3),打开思考模式并设置为True。
如果您使用 Qwen-VL 或 QVQ 模型,请打开LLM节点的视觉开关:
运行LLM节点
单击添加消息,在USER对应的消息下输入问题:“你是谁”,单击节点上方的运行按钮。
LLM节点返回的
text
字段包含思考与回复内容,您可以使用Dify的代码执行节点,通过正则表达式分别提取。
知识库
创建知识库
创建一个知识库并进入。
选择数据源
在此步骤上传您的知识库文件。
文本分段与清洗
您可以在此步骤配置阿里云百炼提供的 Embedding 模型与 Rerank 模型,此处以 text-embedding-v3 与 gte-rerank-v2 为例。其余参数请您按需配置。
Embedding 模型暂时无法选择multimodal-embedding-v1模型,敬请关注后续动态。
常见问题
Q1:如何使用通义万相模型?
A:Dify 没有提供通义万相模型相关的插件,但您可以通过Dify的Chatflow/工作流的节点达到文生图/视频的功能。详情请参考以下步骤:
下载并导入工作流模板
根据您的需求下载我们写好的模板:通义万相-文生图Demo.yml或 通义万相-文生视频Demo.yml,在工作室单击导入DSL文件并选择下载的模板文件。
配置环境变量
进入工作流界面,找到
,并将
DASHSCOPE_API_KEY
的值修改为您的API Key。测试生图效果
单击界面的运行按钮即可生成作品。以文生图工作流输入“小猫”为例,可以得到图片:
视频生成工作流会返回视频的URL。
文生视频的时间一般在5分钟以上,请耐心等待。
发布为工具(可选)
为了在其它大模型应用中使用通义万相的文生图/视频功能,您可以在界面右上方单击发布并选择发布为工具。
模板使用的模型为wanx2.1-t2i-turbo
(文生图)/wanx2.1-t2v-turbo
(文生视频),您可以在STEP1-获取TASK-ID节点修改使用的通义万相模型。
Q2:如何使用 Qwen-Omni/Qwen-Audio/Qwen-OCR/通过阿里云百炼调优的模型?
A:以上模型均不支持直接在 Dify 上配置,您可以通过 Chatflow 或工作流的 HTTP 节点接入,接入细节请参见文档中的 Curl 命令。
为了降低HTTP节点的超时风险,建议您通过流式输出方式调用。
调优后的模型需要经过部署后才能被调用。