Wan2.1_14B_VACE-Q5_K_S
返回

Wan2.1_14B_VACE-Q5_K_S
0 0 2

摄影

Wan2.1_14B_VACE-Q5_K_S
  1. 全能任务支持
    单模型集成六大视频生成与编辑能力,无需切换专用模型即可完成复杂任务:

    • 文生视频(Text-to-Video):通过文本描述生成动态视频,支持中英文长指令(如“花样滑冰运动员完成三周跳”)37。

    • 图生视频(Image-to-Video):基于静态图像生成动态内容(如将商品图转为展示视频)34。

    • 视频重绘:通过深度图、光流、姿态等控制信号修改视频内容(如调整人物动作轨迹)27。

    • 局部编辑:对视频中特定区域增删改(如替换物体、擦除人物)26。

    • 背景延展:扩展画幅或替换背景(如横屏变超宽屏、绿幕替换)68。

    • 时长延展:在时间维度补全视频片段(如帧延续、片段衔接)610。

  2. 多任务自由组合

    • 支持基础能力任意组合(例:竖版《蒙娜丽莎》静态图 → 横版动态视频 + 添加墨镜,一次性完成背景扩展、时长延展和图像参考任务)25。

    • 无需训练新模型即可实现复杂创作流程(如局部换装+动作迁移)47。

此模型源自站外搬运(搬运地址: https://github.com/Wan-Video/Wan2.1 ),若原作者对于本次搬运的结果存在异议,可点
申诉
我们会在 24 小时内,按照原作者的要求,对本模型展开编辑、删除或是转移给原作者等相关处理。由衷欢迎原作者入驻本站,共建 AI绘图的学习交流社区。

user_m0f4opea

user_m0f4opea

摄影

模型信息

原创作者:
阿里巴巴通义万相团队
模型类型:
Unet
基础模型:
WAN2.1
文件名称:
models/unet/Wan2.1_14B_VACE-Q5_K_S.gguf
  1. 全能任务支持
    单模型集成六大视频生成与编辑能力,无需切换专用模型即可完成复杂任务:

    • 文生视频(Text-to-Video):通过文本描述生成动态视频,支持中英文长指令(如“花样滑冰运动员完成三周跳”)37。

    • 图生视频(Image-to-Video):基于静态图像生成动态内容(如将商品图转为展示视频)34。

    • 视频重绘:通过深度图、光流、姿态等控制信号修改视频内容(如调整人物动作轨迹)27。

    • 局部编辑:对视频中特定区域增删改(如替换物体、擦除人物)26。

    • 背景延展:扩展画幅或替换背景(如横屏变超宽屏、绿幕替换)68。

    • 时长延展:在时间维度补全视频片段(如帧延续、片段衔接)610。

  2. 多任务自由组合

    • 支持基础能力任意组合(例:竖版《蒙娜丽莎》静态图 → 横版动态视频 + 添加墨镜,一次性完成背景扩展、时长延展和图像参考任务)25。

    • 无需训练新模型即可实现复杂创作流程(如局部换装+动作迁移)47。

此模型源自站外搬运(搬运地址: https://github.com/Wan-Video/Wan2.1 ),若原作者对于本次搬运的结果存在异议,可点
申诉
我们会在 24 小时内,按照原作者的要求,对本模型展开编辑、删除或是转移给原作者等相关处理。由衷欢迎原作者入驻本站,共建 AI绘图的学习交流社区。