chat_noir-24b-v3 — Tensors (Virtuo Turing)

🇬🇧 Overview

v3 adds stronger instruction following and better generalisation. v1/v2 leaned to shallow learning and memorisation. v3 targets Portuguese legal comprehension and Portugal-specific topics, including public figures.

What changed in v3

  • Larger and more diverse instruction curriculum with reasoning tasks.
  • Heavier legal mix: CPC, CPP, Constitutional Court, TR/STA/STJ, CJEU, ECtHR.
  • Lower overfitting and less prompt echo via objectives and regularisation.
  • Crisper answers. Citations when requested.
  • More robust out of domain.

Architecture and format

  • Base: Mistral-Small-24B-Instruct-2501.
  • Continuation over chat_noir-24b-v2 with a new fine-tuning cycle.
  • LoRA merged into base weights. Release as full tensors (Transformers).
  • Quantisation is downstream and optional.

Recommended use

  • PT-PT legal Q&A, short drafts, concise summaries.
  • Portuguese context: statutes, agencies, case-law, public personalities.
  • Starter config: max_new_tokens=400, temperature=0.2, top_p=0.9, do_sample=true. Tune per task.

Limits

  • Context window ~4k tokens. Not long-context.
  • May produce factual errors without external verification. Check sources.
  • Not legal advice.

License

Virtuo 1.0. Use and redistribution with attribution to Virtuo Turing – Artificial Intelligence, S.A. See the license link.

Credits

Developed by Virtuo Turing – Artificial Intelligence, S.A. with Octávio Viana.
Base architecture © Mistral AI (Apache-2.0).

chat_noir-24b-v3 — Tensors (Virtuo Turing)

Sumário

v3 apresenta treinos mais robustos, melhor seguimento de instruções e maior capacidade de generalização. v1/v2 tinham aprendizagem mais superficial e tendência à memorização. v3 foi preparado para compreensão jurídica em PT-PT e para temas ligados a Portugal, incluindo personalidades portuguesas.

O que mudou no v3

  • Currículo de instruções alargado e mais variado, com tarefas de raciocínio.
  • Mix jurídico reforçado (CPC, CPP, jurisprudência TR/STA/STJ, Tribunal Constitucional, TJUE/TEDH).
  • Menos overfitting e menor eco de prompt através de objetivos e regularização.
  • Respostas mais concisas e orientadas a citação quando solicitado.
  • Maior robustez a pedidos fora do domínio estrito do treino.

Arquitetura e formato

  • Base: Mistral-Small-24B-Instruct-2501.
  • Continuação sobre chat_noir-24b-v2 com novo ciclo de fine-tuning.
  • LoRA fundida nos pesos. Publicação em tensores (Transformers).
  • Quantizações a cargo do utilizador conforme necessidade.

Uso recomendado

  • Q&A jurídico PT-PT, minutas curtas, sínteses com referências.
  • Contexto português: legislação, entidades, jurisprudência e figuras públicas.
  • Ponto de partida para geração: max_new_tokens=400, temperature=0.2, top_p=0.9, do_sample=true. Ajustar a formalidade e comprimento por tarefa.

Limitações

  • Janela de contexto ~4k tokens. Não é long-context.
  • Pode produzir erros factuais sem verificação externa. Confirme fontes.
  • Não constitui aconselhamento jurídico. Uso informativo.

Licença

Virtuo 1.0. Uso e redistribuição com atribuição a Virtuo Turing – Artificial Intelligence, S.A. Consulte o ficheiro de licença no link acima.

Créditos

Desenvolvido por Virtuo Turing – Artificial Intelligence, S.A. com Octávio Viana.
Arquitetura de base © Mistral AI (Apache-2.0).

Downloads last month
3
Safetensors
Model size
24B params
Tensor type
F16
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for VirtuoTuring/chat_noir-24b-v3

Finetuned
(53)
this model
Quantizations
2 models