Comfyui 部署万相 wan2.1 模型
本教程已通过 Cloud Studio 安装了 Comfyui,并在此基础上进行 LTX Video 的部署,具体安装教程可查看 Cloud Studio 安装 Comfyui 部署 Flux.1
环境安装
下载 Diffusion models
在 huggingface
上下载对应的模型,目前容器上只能够跑 1.3B
的文生视频的模型,除了文生视频可以在 8g 显存的情况下(普通消费者显卡)运行外,其余的模型均需要至少 24G 显存的配置。以下演示使用的是 wan2.1_t2v_1.3B_bf16.safetensors
,并将其保存到 ComfyUI/models/diffusion_models
目录
说明:
- i2v 用于图像到视频模型,t2v 用于文本到视频模型
- 14B 和 1.3B 代表参数数量;数值越高,需要的硬件性能越高
- bf16、fp16、fp8 代表不同的精度级别;精度越高,需要的硬件性能越好,其中 fp8 的精度最低,要求也最低,但效果相对较差
- 一般来说,文件越大也意味着更高的硬件要求
下载解码器
下载并保存到 ComfyUI/models/text_encoders
目录
umt5_xxl_fp8_e4m3fn_scaled.safetensors?
下载 CLIP vision 模型
下载并保存到 ComfyUI/models/clip_vision
目录
下载 Wan2.1 VAE 模型
下载并保存到 ComfyUI/models/vae
目录
测试
配置工作流方式测试一下效果
获取工作流文件,关注公众号回复 wan21
文生视频
以下演示使用 Wan2.1 Text-to-Video 1.3B 1080P
工作流,其中 CLIP名称
、 UNet名称
和 vae名称
的模型需要自己调整一下
大概用了 346秒
,运行效果
版权声明:
作者:lrbmike
链接:https://blog.liurb.org/2025/03/13/comfyui-wan21/
来源:大卷学长
文章版权归作者所有,未经允许请勿转载。