Saltar al contenido

Requisitos

import { Aside } from ‘@astrojs/starlight/components’;

Sistema

RequisitoVersion minimaNotas
Python3.11+Probado con 3.11 y 3.12
Sistema operativomacOS, Linux, Windows (WSL2)Windows nativo no recomendado
RAM8 GB minimo16 GB recomendado para Qwen3:14b
Almacenamiento10 GB libresPara modelos Ollama y datos

Ollama (para modo local)

Ollama es necesario si quieres ejecutar el agente ReAct de forma completamente local, sin depender de APIs externas de LLM.

Ventana de terminal
# macOS
brew install ollama
# Linux
curl -fsSL https://ollama.ai/install.sh | sh

Despues de instalar, descarga un modelo compatible con tool calling:

Ventana de terminal
# Recomendado (16 GB RAM) — mejor equilibrio calidad/velocidad
ollama pull qwen3:14b
# Si tienes solo 8-16 GB RAM
ollama pull qwen3:8b
# Si tienes 48 GB RAM — maxima calidad
ollama pull qwen3:32b

Alternativas al LLM local

Si no quieres instalar Ollama, puedes usar:

  • OpenAI (gpt-4o) — necesitas OPENAI_API_KEY
  • Anthropic (claude-3-5-sonnet-20241022) — necesitas ANTHROPIC_API_KEY

Con estas opciones el MCP Server funciona sin necesidad de Ollama.

API Keys de OSINT (opcional)

La mayoria de herramientas tienen free tier. Solo necesitas al menos una para empezar. VirusTotal es la recomendada.

ServicioVariableFree tierRegistro
VirusTotalVIRUSTOTAL_API_KEY500 req/diavirustotal.com
AbuseIPDBABUSEIPDB_API_KEY1.000 req/diaabuseipdb.com
AlienVault OTXALIENVAULT_OTX_API_KEYIlimitadootx.alienvault.com
ShodanSHODAN_API_KEY100 req/messhodan.io
IPInfoIPINFO_TOKEN50.000 req/mesipinfo.io
URLScan.ioURLSCAN_API_KEY5.000 req/diaurlscan.io

Git

Necesitas Git para clonar el repositorio:

Ventana de terminal
# macOS
xcode-select --install
# Linux
sudo apt install git # Ubuntu/Debian
sudo dnf install git # Fedora

Docker (alternativa)

Si prefieres no instalar dependencias en tu sistema, hay una imagen Docker disponible. Ver Integraciones → Docker.