chat_noir-24b-v3 — GGUF (Virtuo Turing)

🇬🇧 Overview

v3 ships as GGUF in two builds: F16 and Q4_K_M. Training is more robust with stronger instruction following and better generalisation. Earlier versions leaned to shallow learning and memorisation. v3 is tuned for Portuguese legal comprehension and Portugal-specific topics, including public figures.

What changed in v3

  • Broader instruction curriculum with reasoning tasks.
  • Heavier legal mix: CPC, CPP, Constitutional Court, TR/STA/STJ, CJEU, ECtHR.
  • Reduced overfitting and prompt-echo via objectives and regularisation.
  • Crisper answers and optional citations when requested.
  • More robust outside the strict training domain.

Format and compatibility

  • Files: chat_noir-24b-v3-f16.gguf, chat_noir-24b-v3-q4_k_m.gguf.
  • Engine: llama.cpp and compatibles (KoboldCpp, text-generation-webui, LM Studio).
  • Context window ~4k tokens.

Recommended use

  • PT-PT legal Q&A, short drafting, concise summaries.
  • Starter config: max_new_tokens=400, temperature=0.2, top_p=0.9, do_sample=true. Tune per task.

Limits

  • Not long-context. Verify facts when accuracy matters. Not legal advice.

License

Virtuo 1.0. Use and redistribution with attribution to Virtuo Turing – Artificial Intelligence, S.A.

Credits

Developed by Virtuo Turing – Artificial Intelligence, S.A. with Octávio Viana.
Base architecture © Mistral AI (Apache-2.0).


🇵🇹 Resumo

A v3 é lançada em GGUF com dois builds: F16 e Q4_K_M. Traz treino mais robusto, melhor seguimento de instruções e maior generalização. As versões anteriores tendiam à memorização. A v3 foi afinada para compreensão jurídica em PT-PT e para temas ligados a Portugal, incluindo personalidades públicas.

O que mudou no v3

  • Currículo de instruções mais amplo com tarefas de raciocínio.
  • Mistura jurídica reforçada: CPC, CPP, Tribunal Constitucional, TR/STA/STJ, TJUE, TEDH.
  • Menos overfitting e menor eco de prompt por via de objetivos e regularização.
  • Respostas mais concisas, com citações quando solicitado.
  • Maior robustez fora do domínio estrito do treino.

Formato e compatibilidade

  • Ficheiros: chat_noir-24b-v3-f16.gguf, chat_noir-24b-v3-q4_k_m.gguf.
  • Motor: llama.cpp e compatíveis.
  • Janela de contexto ~4k tokens.

Uso recomendado

  • Q&A jurídico PT-PT, minutas curtas e sínteses.
  • Config inicial: max_new_tokens=400, temperature=0.2, top_p=0.9, do_sample=true. Ajustar por tarefa.

Limitações

  • Não é long-context. Confirme factos quando crítico. Não constitui aconselhamento jurídico.

Licença

Virtuo 1.0. Uso e redistribuição com atribuição a Virtuo Turing – Artificial Intelligence, S.A.

Créditos

Desenvolvido por Virtuo Turing – Artificial Intelligence, S.A. com Octávio Viana.
Arquitetura base © Mistral AI (Apache-2.0).

Downloads last month
30
GGUF
Model size
24B params
Architecture
llama
Hardware compatibility
Log In to view the estimation

4-bit

16-bit

Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for VirtuoTuring/chat_noir-24b-v3-gguf