Files
orchestrator/examples/local_ollama.yaml

47 lines
962 B
YAML
Raw Normal View History

# examples/local_ollama.yaml
# Ejemplo: Usando modelos locales con Ollama
#
# Requisitos:
# 1. Instalar Ollama: https://ollama.ai
# 2. Descargar modelos: ollama pull llama3
# 3. Ollama debe estar corriendo: ollama serve
settings:
default_provider: litellm
default_model: llama3
timeout: 600 # Modelos locales pueden ser más lentos
agents:
coder:
role: |
Eres un programador que ayuda con código.
Explicas tu razonamiento paso a paso.
provider: litellm
model: codellama
tools:
- read
- write
- bash
writer:
role: |
Eres un escritor creativo.
Ayudas con textos, emails y documentos.
provider: litellm
model: llama3
tools:
- read
- write
analyst:
role: |
Eres un analista de datos.
Procesas archivos y extraes información.
provider: litellm
model: mixtral-local
tools:
- read
- bash
- glob
- grep