馃 Antonio BFCL Toolmodel

Este modelo forma parte del ecosistema BitAgent (Subnet-20) de Bittensor, dise帽ado para tareas de tool-calling, razonamiento l贸gico estructurado y generaci贸n de texto contextual.
Optimizado para comunicaci贸n eficiente entre agentes dentro del protocolo Finney.


馃殌 Descripci贸n t茅cnica

antonio-bfcl-toolmodel est谩 basado en un modelo open-source tipo xLAM-7b-r, ajustado para:

  • 馃搳 Razonamiento simb贸lico y factual multiling眉e
  • 馃З Tool-calling autom谩tico (formato JSON conforme a los prompts de Subnet-20)
  • 馃攧 Respuestas deterministas con temperature=0.1 y top_p=0.9
  • 鈿欙笍 Compatibilidad total con el pipeline de BitAgent Miner (v1.0.51)
  • 馃寪 Idiomas soportados: Espa帽ol 馃嚜馃嚫 e Ingl茅s 馃嚞馃嚙

馃З Integraci贸n con Subnet-20

Los validadores pueden invocar este modelo a trav茅s de los protocolos:

  • QueryTask
  • QueryResult
  • IsAlive
  • GetHFModelName
  • SetHFModelName

El modelo responde mediante bittensor.dendrite y cumple con la especificaci贸n BitAgent v1.0.51.


馃 Ejemplo de inferencia local

from transformers import AutoTokenizer, AutoModelForCausalLM

model_name = "Tonit23/antonio-bfcl-toolmodel"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)

prompt = "Resuelve esta operaci贸n: 12 + 37 = "
inputs = tokenizer(prompt, return_tensors="pt")
outputs = model.generate(**inputs, max_new_tokens=32)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
Downloads last month

-

Downloads are not tracked for this model. How to track
Inference Providers NEW
This model isn't deployed by any Inference Provider. 馃檵 Ask for provider support

Model tree for Tonit23/antonio-bfcl-toolmodel

Finetuned
(1)
this model