ComfyUI-视频风格转绘 模型部署教程这个版本的工作流是使用了 图片风格迁移 + 视频转绘来进行实现的,视频转绘的工作流是 Wan2.1-VACE 视频转绘。
主要的功能是先使用图片风格迁移的工作流将需要学习的图片的风格迁移至视频 首帧 ,之后在利用视频转绘把第一帧的图片的风格扩散至其余帧上,最后完成整个视频风格迁移
它实现了一个复杂的视频风格迁移与人物特征保留功能,结合了多模态控制、面部细节增强和视频生成技术。核心目标是将输入视频(如 34.mp4)转换为具有指定艺术风格(如梵高风格)的视频,同时保持原始视频中人物的姿态、结构和面部细节。
conda create -n comfyenv python==3.12
conda activate comfyenv
git clone https://github.com/comfyanonymous/ComfyUI.git
#安装插件管理器
cd /ComfyUI/custom_nodes/
git clone https://github.com/Comfy-Org/ComfyUI-Manager.git
conda install pytorch torchvision torchaudio pytorch-cuda=12.1 -c pytorch -c nvidia
cd ComfyUI
pip install -r requirements.txt
cd ComfyUI
python main.py
文本编码模型地址 1:Wan_2.1_ComfyUI_repackaged · 模型库
lora 模型地址 2:WanVideo_comfy · 模型库
VACE 模型地址:Wan2.1-VACE-14B-GGUF · 模型库
更多模型请看相关模型文档
使用魔搭下载
#启动虚拟环境
conda activate comfyenv
#下载魔搭工具
pip install modelscope
#下载VACE模型
modelscope download --model QuantStack/Wan2.1-VACE-14B-GGUF Wan2.1_14B_VACE-Q5_K_S.gguf --local_dir /ComfyUI/models/diffusion_models/
#下载VAE模型
modelscope download --model Comfy-Org/Wan_2.1_ComfyUI_repackaged split_files/vae/wan_2.1_vae.safetensors --local_dir /ComfyUI/models/vae/
#下载文本编码模型
modelscope download --model Comfy-Org/Wan_2.1_ComfyUI_repackaged split_files/text_encoders/umt5_xxl_fp8_e4m3fn_scaled.safetensors --local_dir /ComfyUI/models/text_encoders/
#下载lora模型
modelscope download --model Kijai/WanVideo_comfy Wan21_CausVid_14B_T2V_lora_rank32.safetensors --local_dir /ComfyUI/models/lora/
在 Comfy-UI-Manager 中搜索并下载下列插件
ComfyUI-WanVideoWrapper
ComfyUI-GGUF
comfyui_ controlnet_aux
ComfyUI-Advanced-ControlNet
ComfyUI- Easy-Use
comfyui_controlnet_aux
comfyui_ipadapter_plus
comfyui impact pack
ComfyUI Inspire Pack

#安装ComfyUI-VideoHelperSuite
cd /ComfyUI/custom_nodes/
git clone https://github.com/Kosinkadink/ComfyUI-VideoHelperSuite.git
可以直接下载下面的
分享文件:风格迁移(综合).json
链接:https://pan.xunlei.com/s/VOVzR9RXxOuxt56aPtslY4vkA1?pwd=34d9#
复制这段内容后打开迅雷,查看更方便
#进入虚拟环境
conda activate comfyenv
#进入项目文件
cd ComfyUI
#启动
python main.py --listen 0.0.0.0 --port 8080
Web页面:

点击此处,立即体验ComfyUI-视频风格转绘!
