Instalacion
import { Aside, Steps, Tabs, TabItem } from ‘@astrojs/starlight/components’;
Opcion A: Instalacion local
-
Clona el repositorio
Ventana de terminal git clone https://github.com/pepetox/osint-ai-one.gitcd osint-ai-one -
Crea y activa el entorno virtual
Ventana de terminal python -m venv .venvsource .venv/bin/activate # Linux/macOS# .venv\Scripts\activate # Windows (PowerShell) -
Instala el paquete
Ventana de terminal pip install -e .Esto instala el paquete en modo editable y registra los entry points:
osint-agent,osint-mcp,osint-a2a. -
Configura las variables de entorno
Ventana de terminal cp .env.example .envEdita
.envcon tu editor preferido. Como minimo, añade una API key:Ventana de terminal # .env — minimo para empezarVIRUSTOTAL_API_KEY=tu_clave_aqui# LLM local (por defecto)LLM_PROVIDER=ollamaOLLAMA_MODEL=qwen3:14b -
Descarga el modelo Ollama
Ventana de terminal ollama pull qwen3:14b -
Verifica la instalacion
Ventana de terminal osint-agent --helpDeberias ver el menu de ayuda del CLI.
Opcion B: Docker
docker compose run --rm --profile cli osint-agent```Verificar la instalacion
# El agente debe arrancar sin erroresosint-agent
# En el prompt interactivo, prueba una query simpleosint> Investiga la IP 8.8.8.8Si ves errores de conexion a Ollama, asegurate de que el servicio esta corriendo:
ollama serve # En otra terminal si no esta como servicioollama list # Verifica que el modelo esta descargadoInstalacion para desarrollo
Si quieres contribuir o ejecutar los tests:
pip install -e ".[dev]"pytest tests/ -vVer Desarrollo → Tests para mas detalles.