Files
orchestrator/examples/local_ollama.yaml
tzzrgit 374a74aa6d Initial commit: TZZR Orchestrator v5
- Framework genérico multi-agente
- Providers: Claude CLI, LiteLLM (100+ modelos)
- Tools: bash, read, write, glob, grep, ssh, http
- Seguridad: sandbox paths, validación comandos, rate limiting
- Configuración via YAML + .env

🤖 Generated with Claude Code
2025-12-23 16:22:49 +01:00

47 lines
962 B
YAML

# examples/local_ollama.yaml
# Ejemplo: Usando modelos locales con Ollama
#
# Requisitos:
# 1. Instalar Ollama: https://ollama.ai
# 2. Descargar modelos: ollama pull llama3
# 3. Ollama debe estar corriendo: ollama serve
settings:
default_provider: litellm
default_model: llama3
timeout: 600 # Modelos locales pueden ser más lentos
agents:
coder:
role: |
Eres un programador que ayuda con código.
Explicas tu razonamiento paso a paso.
provider: litellm
model: codellama
tools:
- read
- write
- bash
writer:
role: |
Eres un escritor creativo.
Ayudas con textos, emails y documentos.
provider: litellm
model: llama3
tools:
- read
- write
analyst:
role: |
Eres un analista de datos.
Procesas archivos y extraes información.
provider: litellm
model: mixtral-local
tools:
- read
- bash
- glob
- grep