Neta Lumina-Beta
返回

Neta Lumina-Beta
0 0 1

二次元

Neta Lumina-Beta
Neta Lumina-Beta
Neta Lumina-Beta
Neta Lumina-Beta

模型简介(Introduction)
Neta Lumina 是由捏Ta实验室(Neta.art)训练的高品质二次元风格图像生成模型。我们基于上海人工智能实验室 Alpha-VLLM 团队开源的 Lumina-Image-2.0,利用海量、高质量的二次元风格图像及多语种标签数据,使模型具备强大的需求理解与诠释能力,非常适合插画、海报、分镜、角色设计等场景。

主要特色
针对多样化创作场景进行优化,如 Furry、国风、宠物等
支持众多角色与风格,包括热门和冷门设定
准确理解自然语言,具备优秀的复杂提示词遵循能力
原生支持多语言,推荐优先使用中文、英文和日文
模型版本
基础模型(Base Model)
数据集:约 1300 万张二次元风格图像
主要目标:通用知识学习、二次元风格优化
美学微调模型(Aesthetic Model)
基于基础模型进一步微调
数据集:精选数十万张高质量动漫风格图像
主要目标:提升美学表现、肢体结构精准度与画面细节

使用指南(How to Use)
该模型采用基于 Diffusion Transformer 的 Lumina2 框架,与 Stable Diffusion 模型不同,请务必按本文档进行配置。

ComfyUI
环境要求(Environment)
目前 Neta Lumina 仅支持在 ComfyUI 平台使用:

安装最新版 ComfyUI
至少 8 GB 显存
模型下载与安装(Downloads)
原版
Neta Lumina-Beta

下载链接:https://huggingface.co/neta-art/Neta-Lumina/blob/main/Unet/neta-lumina-beta-aes-experimental-0624.safetensors
文件格式:.safetensor
存放路径:ComfyUI/models/unet/
文本编码器(Gemma-2B)

下载链接:https://huggingface.co/neta-art/Neta-Lumina/blob/main/Text%20Encoder/gemma_2_2b_fp16.safetensors
文件格式:.safetensors(约 5.23 GB)
存放路径:ComfyUI/models/text_encoders/
VAE 模型(16 通道 FLUX VAE)

下载链接:https://huggingface.co/neta-art/Neta-Lumina/blob/main/VAE/ae.safetensors
文件格式:ae.safetensors(约 300 MB)
存放路径:ComfyUI/models/vae/
对应工作流:lumina_workflow.json(在 ComfyUI 中加载该 JSON 文件即可)

image/png

UNETLoader:加载模型文件
VAELoader:加载 ae.safetensors
CLIPLoader:加载 gemma_2_2b_fp16.safetensors
Text Encoder:输出分别连接采样器的正向/负向条件
简易合并版
下载 neta-lumina-beta-ase-experimental-all-in-on-0624

使用 ComfyUI 默认工作流即可

推荐参数(Recommended Settings)
采样器:res_multistep
调度器:linear_quadratic
采样步数:30
CFG(提示词引导强度):4~5.5
EmptySD3LatentImage:推荐分辨率为 1024×1024、768×1532 或 968×1322
提示词指南(Prompt Book)
Neta Anime Lumina绘图模型提示词指南



社区(Community)
Discord 社群:https://discord.gg/ugRSCY3v
QQ 交流群:785779037

路线图(Roadmap)
我们主要在以下方面进行模型本身的开发

持续训练基础模型,提升智能水平。
迭代美学数据集,优化肢体表现、背景丰富度及画面整体美观度。
开发更智能、多样化的打标工具,降低用户创作门槛。
关于模型生态,我们会准备

LoRA 训练教程和相应组件
虽然当前 Neta Lumina-Beta 尚未完全成熟,但有经验的用户可以尝试基于 Lumina-Image-2.0 的开源训练代码自行微调。
精细化控制、形象/风格一致化等能力(如 Omini Control)的开发,欢迎发起或者参与。

模型许可证与使用声明(License & Disclaimer)
Neta Lumina 采用 Fair AI Public License 1.0-SD 协议
您后续如果修改、合并、再次开发该模型,需要将后续的衍生模型开源。

参与者与贡献者(Participants & Contributors)
特别鸣谢:感谢上海AI实验室 Alpha-VLLM 课题组开源了 Lumina-Image-2.0 。该模型的推出为社区提供了强大的视觉生成框架,我们基于此进行了二次元领域的定向训练。在此特别感谢 Lumina 项目的作者们为开源做出的贡献。
模型开发团队:捏Ta 实验室 Neta.art Lab Civitai 主页
合作伙伴
nebulae: Civitai | Huggingface
Narugo1992: 感谢 narugo1992 和 deepghs 团队开源了各种训练集、图像处理工具和模型。
Mikubill:感谢 Mikubill 的 Naifu 训练师。
开源社区贡献者
评测和开发:二小姐,spawner,奇葩菌2333
其他贡献者:沉迷摸鱼,poi氵,ashan,十分无奈,GHOSTLXH,wenaka,iiiiii,niangao233,恩匹希,奶冻美宣集,Rnglg2,mumu,yizyin,smile

附录与扩展资源(Appendix & Resources)
TeaCache:https://github.com/spawner1145/CUI-Lumina2-TeaCache
进阶采样器和 TeaCache 使用方法(由spawner编写):https://docs.qq.com/doc/DZEFKb1ZrZVZiUmxw?nlc=1
Neta Lumina ComfyUI 使用手册(内测版) :https://docs.qq.com/doc/DZEVQZFdtaERPdXVh

此模型源自站外搬运(搬运地址: https://huggingface.co/neta-art/Neta-Lumina/blob/main/README-ZH.md ),若原作者对于本次搬运的结果存在异议,可点
申诉
我们会在 24 小时内,按照原作者的要求,对本模型展开编辑、删除或是转移给原作者等相关处理。由衷欢迎原作者入驻本站,共建 AI绘图的学习交流社区。

user_8tpxymbh

user_8tpxymbh

二次元

模型信息

原创作者:
neta
模型类型:
Unet
基础模型:
Other

模型简介(Introduction)
Neta Lumina 是由捏Ta实验室(Neta.art)训练的高品质二次元风格图像生成模型。我们基于上海人工智能实验室 Alpha-VLLM 团队开源的 Lumina-Image-2.0,利用海量、高质量的二次元风格图像及多语种标签数据,使模型具备强大的需求理解与诠释能力,非常适合插画、海报、分镜、角色设计等场景。

主要特色
针对多样化创作场景进行优化,如 Furry、国风、宠物等
支持众多角色与风格,包括热门和冷门设定
准确理解自然语言,具备优秀的复杂提示词遵循能力
原生支持多语言,推荐优先使用中文、英文和日文
模型版本
基础模型(Base Model)
数据集:约 1300 万张二次元风格图像
主要目标:通用知识学习、二次元风格优化
美学微调模型(Aesthetic Model)
基于基础模型进一步微调
数据集:精选数十万张高质量动漫风格图像
主要目标:提升美学表现、肢体结构精准度与画面细节

使用指南(How to Use)
该模型采用基于 Diffusion Transformer 的 Lumina2 框架,与 Stable Diffusion 模型不同,请务必按本文档进行配置。

ComfyUI
环境要求(Environment)
目前 Neta Lumina 仅支持在 ComfyUI 平台使用:

安装最新版 ComfyUI
至少 8 GB 显存
模型下载与安装(Downloads)
原版
Neta Lumina-Beta

下载链接:https://huggingface.co/neta-art/Neta-Lumina/blob/main/Unet/neta-lumina-beta-aes-experimental-0624.safetensors
文件格式:.safetensor
存放路径:ComfyUI/models/unet/
文本编码器(Gemma-2B)

下载链接:https://huggingface.co/neta-art/Neta-Lumina/blob/main/Text%20Encoder/gemma_2_2b_fp16.safetensors
文件格式:.safetensors(约 5.23 GB)
存放路径:ComfyUI/models/text_encoders/
VAE 模型(16 通道 FLUX VAE)

下载链接:https://huggingface.co/neta-art/Neta-Lumina/blob/main/VAE/ae.safetensors
文件格式:ae.safetensors(约 300 MB)
存放路径:ComfyUI/models/vae/
对应工作流:lumina_workflow.json(在 ComfyUI 中加载该 JSON 文件即可)

image/png

UNETLoader:加载模型文件
VAELoader:加载 ae.safetensors
CLIPLoader:加载 gemma_2_2b_fp16.safetensors
Text Encoder:输出分别连接采样器的正向/负向条件
简易合并版
下载 neta-lumina-beta-ase-experimental-all-in-on-0624

使用 ComfyUI 默认工作流即可

推荐参数(Recommended Settings)
采样器:res_multistep
调度器:linear_quadratic
采样步数:30
CFG(提示词引导强度):4~5.5
EmptySD3LatentImage:推荐分辨率为 1024×1024、768×1532 或 968×1322
提示词指南(Prompt Book)
Neta Anime Lumina绘图模型提示词指南



社区(Community)
Discord 社群:https://discord.gg/ugRSCY3v
QQ 交流群:785779037

路线图(Roadmap)
我们主要在以下方面进行模型本身的开发

持续训练基础模型,提升智能水平。
迭代美学数据集,优化肢体表现、背景丰富度及画面整体美观度。
开发更智能、多样化的打标工具,降低用户创作门槛。
关于模型生态,我们会准备

LoRA 训练教程和相应组件
虽然当前 Neta Lumina-Beta 尚未完全成熟,但有经验的用户可以尝试基于 Lumina-Image-2.0 的开源训练代码自行微调。
精细化控制、形象/风格一致化等能力(如 Omini Control)的开发,欢迎发起或者参与。

模型许可证与使用声明(License & Disclaimer)
Neta Lumina 采用 Fair AI Public License 1.0-SD 协议
您后续如果修改、合并、再次开发该模型,需要将后续的衍生模型开源。

参与者与贡献者(Participants & Contributors)
特别鸣谢:感谢上海AI实验室 Alpha-VLLM 课题组开源了 Lumina-Image-2.0 。该模型的推出为社区提供了强大的视觉生成框架,我们基于此进行了二次元领域的定向训练。在此特别感谢 Lumina 项目的作者们为开源做出的贡献。
模型开发团队:捏Ta 实验室 Neta.art Lab Civitai 主页
合作伙伴
nebulae: Civitai | Huggingface
Narugo1992: 感谢 narugo1992 和 deepghs 团队开源了各种训练集、图像处理工具和模型。
Mikubill:感谢 Mikubill 的 Naifu 训练师。
开源社区贡献者
评测和开发:二小姐,spawner,奇葩菌2333
其他贡献者:沉迷摸鱼,poi氵,ashan,十分无奈,GHOSTLXH,wenaka,iiiiii,niangao233,恩匹希,奶冻美宣集,Rnglg2,mumu,yizyin,smile

附录与扩展资源(Appendix & Resources)
TeaCache:https://github.com/spawner1145/CUI-Lumina2-TeaCache
进阶采样器和 TeaCache 使用方法(由spawner编写):https://docs.qq.com/doc/DZEFKb1ZrZVZiUmxw?nlc=1
Neta Lumina ComfyUI 使用手册(内测版) :https://docs.qq.com/doc/DZEVQZFdtaERPdXVh

此模型源自站外搬运(搬运地址: https://huggingface.co/neta-art/Neta-Lumina/blob/main/README-ZH.md ),若原作者对于本次搬运的结果存在异议,可点
申诉
我们会在 24 小时内,按照原作者的要求,对本模型展开编辑、删除或是转移给原作者等相关处理。由衷欢迎原作者入驻本站,共建 AI绘图的学习交流社区。