Seleccion de modelo
import { Aside } from ‘@astrojs/starlight/components’;
El tool calling es un requisito obligatorio para el agente ReAct. No todos los modelos lo soportan correctamente. Esta guia te ayuda a elegir el modelo adecuado.
Por RAM disponible
| RAM disponible | Modelo | Comando | RAM usada | Notas |
|---|---|---|---|---|
| 8–16 GB | qwen3:8b | ollama pull qwen3:8b | ~5 GB | Rapido, calidad minima viable |
| 16 GB | qwen3:14b ⭐ | ollama pull qwen3:14b | ~9 GB | Recomendado — mejor ratio calidad/RAM |
| 32 GB | qwen3:14b o qwen3:30b | ollama pull qwen3:30b | ~19 GB | 30b = MoE, mas rapido, 256 K contexto |
| 48 GB+ | qwen3:32b | ollama pull qwen3:32b | ~20 GB | Maxima calidad, denso, ~15-22 tok/s en M4 |
| 48 GB+ (documentos largos) | qwen3:30b | ollama pull qwen3:30b | ~19 GB | MoE, ventana de 256 K contexto ideal para evidencias grandes |
Tras descargar el modelo, establece OLLAMA_MODEL en tu .env:
OLLAMA_MODEL=qwen3:14b # o el que hayas descargadoQue evitar
| Modelo | Por que evitar |
|---|---|
qwen3.5:* | Tool calling roto en Ollama (marzo 2026) — incompatibilidad de formato que causa HTTP 500 en cada llamada de herramienta (#14493) |
qwen2.5 | Superado por Qwen3 en todos los benchmarks |
| Modelos sin tool calling | El agente ReAct no puede funcionar sin esta capacidad |
Alternativas cloud (sin Ollama)
Si no quieres instalar Ollama o necesitas maxima calidad, puedes usar LLMs en la nube:
# OpenAILLM_PROVIDER=openaiOPENAI_MODEL=gpt-4oOPENAI_API_KEY=sk-...
# AnthropicLLM_PROVIDER=anthropicANTHROPIC_MODEL=claude-3-5-sonnet-20241022ANTHROPIC_API_KEY=sk-ant-...Benchmark de calidad (orientativo)
Para el caso de uso de OSINT (analisis de IOCs, redaccion de informes, razonamiento sobre amenazas):
| Modelo | Velocidad | Calidad de analisis | Tool calling |
|---|---|---|---|
| qwen3:8b | ★★★★★ | ★★★ | ★★★★ |
| qwen3:14b | ★★★★ | ★★★★ | ★★★★★ |
| qwen3:30b | ★★★★ | ★★★★★ | ★★★★★ |
| qwen3:32b | ★★★ | ★★★★★ | ★★★★★ |
| gpt-4o | ★★★ | ★★★★★ | ★★★★★ |
| claude-3-5-sonnet | ★★★ | ★★★★★ | ★★★★★ |
Como cambiar el modelo
# 1. Descarga el nuevo modeloollama pull qwen3:32b
# 2. Actualiza .envOLLAMA_MODEL=qwen3:32b
# 3. Reinicia el agenteosint-agentNo hay que reiniciar ningun servicio — el agente lee el modelo del .env en cada arranque.