
Este es un modelo cuantizado en 8 bits, pensado para chat fluido y de larga duración, en formato GGUF para correr en frameworks como llama.cpp, KoboldCpp, text-generation-webui, etc.
Este es un modelo cuantizado en 8 bits, pensado para chat fluido y de larga duración, en formato GGUF para correr en frameworks como llama.cpp, KoboldCpp, text-generation-webui, etc.