在FunArt中使用VisionPlaid

更新时间:
复制为 MD 格式

FunArt 对 VisionPlaid 做了深度集成,提供示例工作流与依赖,开箱即用。本文介绍如何创建 ComfyUI 项目并选择 VisionPlaid 加速引擎、运行示例工作流,以及 VisionPlaid ComfyUI 节点参数说明。

概述

FunArt 对 VisionPlaid 做了深度集成,包括集成 VisionPlaid 加速引擎、提供 VisionPlaid 示例工作流、示例工作流所需模型数据及依赖包,用户可开箱即用。VisionPlaid 在Qwen-Image-Edit-*、Qwen-Image-*和Wan2.2系列模型下具备SOTA的端到端推理性能。本文介绍从创建项目、运行示例工作流到节点参数说明的完整流程。性能数据与对比图详见VisionPlaid 发布说明

前提条件

开始前,请确保满足以下条件:

创建并配置使用 VisionPlaid 的 ComfyUI 项目

在 FunArt 中通过创建 ComfyUI 项目,并在创建流程的第三步将加速引擎选为VisionPlaid,即可使用 VisionPlaid 加速。步骤如下。

步骤 1:选择项目类型

在 FunArt 控制台页面导航栏,单击项目,单击创建新项目。在第一步「选择项目类型」中选择ComfyUI

步骤 2:选择 GPU 卡型和规格

在第二步「选择 GPU 卡型和规格」中,按业务需求选择 GPU 卡型。使用 VisionPlaid 时建议选择Ada-*系统Blackwell 系列,并配置 GPU 显存、vCPU、内存、磁盘等规格,单击下一步

步骤 3:配置其他项目属性并选择 VisionPlaid

在第三步「配置其他项目属性」中配置以下内容:

  • 项目名称:必填,输入项目名称。

  • 地域:选择项目部署地域(如华东 1(杭州))。

  • 加速引擎:在加速引擎下拉框中选择VisionPlaid。该选项用于为 ComfyUI 配置加速工具,选择 VisionPlaid 后即可在项目中使用 VisionPlaid 进行推理加速。

  • 存储配置:按需选择(如「自动配置」表示使用 NAS 存储模型和插件等资源)。

配置完成后,单击下一步

步骤 4:确认并完成创建

在第四步「确认并完成创建」页面,查看配置信息(项目名称、项目类型、地域、GPU 规格等)及部署资源(函数计算 FC、文件存储 NAS、日志服务 SLS 等)的计费说明,确认无误后单击确认部署。系统将开始部署,页面提示「正在准备项目(3~5 分钟),部署阶段不会产生 GPU 费用」。部署完成后即可进入项目开发阶段,使用工作站进行出图与调试。

重要

GPU 采用按量计费,界面预估费用仅供参考,以实际使用为准。使用完毕后请及时关闭工作空间以停止计费。

项目开发与使用

项目创建并部署完成后,可进入项目详情页进行开发与出图。可参考创建 ComfyUI 项目快速入门中的工作站与出图流程。

运行示例工作流

在打开的项目页面中,选择项目开发 > 工作站 > Workflows,可看到 FunArt 已内置的 VisionPlaid 示例工作流。

选择要运行的工作流,单击右上角Run 按钮即可开始推理。

VisionPlaid ComfyUI 节点介绍

以下为 VisionPlaid 在 ComfyUI 工作流中的主要节点及参数说明。

VisionPlaid Load Diffusion Model

  • unet_name:要加载的模型权重,与 ComfyUI 的 Load Diffusion Model 一致。若使用 W4A4 量化,需在此指定对应权重;若开启 4-step 优化,可下载 4-step 优化专用权重。

  • weight_dtype(量化类型):default 与 ComfyUI 的 Load Diffusion Model 一致;int4 为 W4A4 的 int4 量化;nvfp4 为 W4A4 的 nvfp4 量化;其他 与 ComfyUI 的 Load Diffusion Model 一致。

Diffusion Boost V1

Diffusion Boost V1 是控制和配置推理加速的统一入口。

  • enable_compile:开启或关闭编译,使用 torch.compile 编译 transformer 可优化算子以提升性能。

  • attn_type(Attention 类型):当前支持 defaultsageflash。default 跟随 ComfyUI 所用 Attention;flash 需自行安装 FlashAttention;sage 使用 SageAttention(bitforge 版本已内置,无需单独安装)。

  • enable_fbcacheresidual_diff_thresholdcache_start:当前版本尚未支持。

  • enable_offload:开启自动 offload transformer 权重,可缓解大图时 VAE decode 占用内存过高的问题,避免因 transformer unload 带来的性能损失。

  • num_blocks_on_gpu:开启自动 offload 时,控制常驻 GPU 的 transformer block 数量。减小该值可降低与 VAE 抢占内存的概率;增大该值有时可提升性能,可根据图片大小调试。

重要

第一次运行可能需要编译,耗时较长,多跑几次后性能可达最佳。

Parallel KSampler

除与 ComfyUI 一致的 modelseedstepscfgsampler_nameschedulerpositivenegativelatent_imagedenoise 等参数外,VisionPlaid 提供:

  • num_gpus:多卡并行的卡数。num_gpus=1 时为单卡推理;num_gpus>1 时开启多卡序列并行,并启用通信掩盖(overlap)以降低通信开销。

  • 进入项目:在项目列表中单击已创建且已配置 VisionPlaid 加速引擎的 ComfyUI 项目,进入项目详情。

  • 使用工作站:在项目开发页签下,使用工作站配置模型、工作流及参数,设置提示词并执行工作流完成出图。

  • 文件管理:在文件管理页签中可查看输入输出文件及模型等资源。

发布线上服务(可选)

若需将已配置 VisionPlaid 的 ComfyUI 项目发布为线上 API 供外部调用,可在线上服务中完成发布与配置管理。操作步骤详见:为 ComfyUI 项目发布线上服务

重要

请勿在函数计算控制台直接修改由 FunArt 创建的函数配置,避免被下次发布覆盖。