实测,低配友好!!flux1-dev量化模型
由于上传文件类型限制,下载后请将后缀名safetensors改为gguf!放入/ComfyUI/models/unet 文件夹。
使用GGUF节点加载么么哒
来源:[https://huggingface.co/city96/FLUX.1-dev-gguf/tree/main,由](https://huggingface.co/city96/FLUX.1-dev-gguf/tree/main,由) city96 发布。
这是 Flux.1-dev 的直接 GGUF 格式转换版本。由于这是一个**量化模型**而非微调模型,**因此仍然适用原始的许可协议和限制条款**。关于量化类型的基本概述可参考相关资料。
这些模型文件可以与 **ComfyUI-GGUF 自定义节点** 一起使用。
请将模型文件放入 `ComfyUI/models/unet` 文件夹中——安装的更多说明请查看 GitHub 的自述文件(README)。
另外,自从最新的提交之后,该模型也可以在 **Forge** 中使用!
实测,低配友好!!flux1-dev量化模型
由于上传文件类型限制,下载后请将后缀名safetensors改为gguf!放入/ComfyUI/models/unet 文件夹。
使用GGUF节点加载么么哒
来源:[https://huggingface.co/city96/FLUX.1-dev-gguf/tree/main,由](https://huggingface.co/city96/FLUX.1-dev-gguf/tree/main,由) city96 发布。
这是 Flux.1-dev 的直接 GGUF 格式转换版本。由于这是一个**量化模型**而非微调模型,**因此仍然适用原始的许可协议和限制条款**。关于量化类型的基本概述可参考相关资料。
这些模型文件可以与 **ComfyUI-GGUF 自定义节点** 一起使用。
请将模型文件放入 `ComfyUI/models/unet` 文件夹中——安装的更多说明请查看 GitHub 的自述文件(README)。
另外,自从最新的提交之后,该模型也可以在 **Forge** 中使用!