Comfyui 部署万相 wan2.1 模型

本教程已通过 Cloud Studio 安装了 Comfyui,并在此基础上进行 LTX Video 的部署,具体安装教程可查看 Cloud Studio 安装 Comfyui 部署 Flux.1

环境安装

下载 Diffusion models

Diffusion models

huggingface 上下载对应的模型,目前容器上只能够跑 1.3B 的文生视频的模型,除了文生视频可以在 8g 显存的情况下(普通消费者显卡)运行外,其余的模型均需要至少 24G 显存的配置。以下演示使用的是 wan2.1_t2v_1.3B_bf16.safetensors,并将其保存到 ComfyUI/models/diffusion_models 目录

wan21_01

说明:
- i2v 用于图像到视频模型,t2v 用于文本到视频模型
- 14B 和 1.3B 代表参数数量;数值越高,需要的硬件性能越高
- bf16、fp16、fp8 代表不同的精度级别;精度越高,需要的硬件性能越好,其中 fp8 的精度最低,要求也最低,但效果相对较差
- 一般来说,文件越大也意味着更高的硬件要求

下载解码器

下载并保存到 ComfyUI/models/text_encoders 目录

umt5_xxl_fp8_e4m3fn_scaled.safetensors?

下载 CLIP vision 模型

下载并保存到 ComfyUI/models/clip_vision 目录

clip_vision_h

下载 Wan2.1 VAE 模型

下载并保存到 ComfyUI/models/vae 目录

wan_2.1_vae.safetensors

测试

配置工作流方式测试一下效果

获取工作流文件,关注公众号回复 wan21

文生视频

以下演示使用 Wan2.1 Text-to-Video 1.3B 1080P 工作流,其中 CLIP名称UNet名称vae名称 的模型需要自己调整一下

wan21_10

大概用了 346秒,运行效果

ComfyUI_00030_

版权声明:
作者:lrbmike
链接:https://blog.liurb.org/2025/03/13/comfyui-wan21/
来源:大卷学长
文章版权归作者所有,未经允许请勿转载。

THE END
分享
二维码
< <上一篇
下一篇>>