
# Wan VACE-Controlnet视频
利用深度或者姿势图 控制视频生成
## 用法1:
1. 载入视频
2. 开启控制功能
2. 输入提示词
3. 生成即可
## 用法2:
1. 载入视频
2. 载入参考图
2. 开启控制功能
2. 输入提示词
3. 生成即可
## 功能:
1. 姿势控制:把视频转换成openpose 人体姿势图 控制视频 适用于人像
8. 深度控制: 把视频转换成depth深度图 控制视频 适用于场景
## 参数:
1. 随机种子:改变随机种子会改变生成结果
2. 限制分辨率:图片\视频的最大的宽高不会超过设置的值 另一边会等比的缩放
3. 跳过视频前多少帧: 根据视频原来的帧数来控制 例如原视频30帧一秒 这里设置30 就是跳过前1秒
4. 生成视频的时长: 这里根据视频模型来设置 例如wan2.1官方例子生成时长为81帧 每秒帧数是16 最后出来的是5秒视频
6. 正面提示词: 控制生成图片\视频的词 根据上传的图片输入合理的描述
## 注意:
1. **载入视频**节点的force_rate 决定视频的每秒帧数 输入16就是每秒16帧
1. **载入视频**节点的 frame_load_cap 和skip_first_frames 只是作为预览参考
最终决定跳过帧和视频生成帧 是绿色的参数按钮
1. 保存位置
视频将会保存到“output/视频” 文件夹里面
2. 视频加速
如果你comfyui没有安装triton 和sageattn 那么请把
wan2.1图生视频的 WanVideo Torch Compile Settings 删掉
把 WanVideo Model Loader的attention_mode 改成sdpa
否则会出错
如果你显存低生成不了 可以在WanVideo BlockSwap 设置 blocks_to_swap 到30~40 这样虽然慢一点 但是起码能生成
也可以加入阿硕的知识星球号:17259412
直通链接:https://t.zsxq.com/TIfva
社群提供:
一、comfyui独家高级工作流
二、各种疑难问题解答
三、阿硕整合包 解决环境冲突 100+原创工作流
四、最新的外网ai资讯
五、社群有问必答
# Wan VACE-Controlnet视频
利用深度或者姿势图 控制视频生成
## 用法1:
1. 载入视频
2. 开启控制功能
2. 输入提示词
3. 生成即可
## 用法2:
1. 载入视频
2. 载入参考图
2. 开启控制功能
2. 输入提示词
3. 生成即可
## 功能:
1. 姿势控制:把视频转换成openpose 人体姿势图 控制视频 适用于人像
8. 深度控制: 把视频转换成depth深度图 控制视频 适用于场景
## 参数:
1. 随机种子:改变随机种子会改变生成结果
2. 限制分辨率:图片\视频的最大的宽高不会超过设置的值 另一边会等比的缩放
3. 跳过视频前多少帧: 根据视频原来的帧数来控制 例如原视频30帧一秒 这里设置30 就是跳过前1秒
4. 生成视频的时长: 这里根据视频模型来设置 例如wan2.1官方例子生成时长为81帧 每秒帧数是16 最后出来的是5秒视频
6. 正面提示词: 控制生成图片\视频的词 根据上传的图片输入合理的描述
## 注意:
1. **载入视频**节点的force_rate 决定视频的每秒帧数 输入16就是每秒16帧
1. **载入视频**节点的 frame_load_cap 和skip_first_frames 只是作为预览参考
最终决定跳过帧和视频生成帧 是绿色的参数按钮
1. 保存位置
视频将会保存到“output/视频” 文件夹里面
2. 视频加速
如果你comfyui没有安装triton 和sageattn 那么请把
wan2.1图生视频的 WanVideo Torch Compile Settings 删掉
把 WanVideo Model Loader的attention_mode 改成sdpa
否则会出错
如果你显存低生成不了 可以在WanVideo BlockSwap 设置 blocks_to_swap 到30~40 这样虽然慢一点 但是起码能生成
也可以加入阿硕的知识星球号:17259412
直通链接:https://t.zsxq.com/TIfva
社群提供:
一、comfyui独家高级工作流
二、各种疑难问题解答
三、阿硕整合包 解决环境冲突 100+原创工作流
四、最新的外网ai资讯
五、社群有问必答