47 lines
962 B
YAML
47 lines
962 B
YAML
|
|
# examples/local_ollama.yaml
|
||
|
|
# Ejemplo: Usando modelos locales con Ollama
|
||
|
|
#
|
||
|
|
# Requisitos:
|
||
|
|
# 1. Instalar Ollama: https://ollama.ai
|
||
|
|
# 2. Descargar modelos: ollama pull llama3
|
||
|
|
# 3. Ollama debe estar corriendo: ollama serve
|
||
|
|
|
||
|
|
settings:
|
||
|
|
default_provider: litellm
|
||
|
|
default_model: llama3
|
||
|
|
timeout: 600 # Modelos locales pueden ser más lentos
|
||
|
|
|
||
|
|
agents:
|
||
|
|
coder:
|
||
|
|
role: |
|
||
|
|
Eres un programador que ayuda con código.
|
||
|
|
Explicas tu razonamiento paso a paso.
|
||
|
|
provider: litellm
|
||
|
|
model: codellama
|
||
|
|
tools:
|
||
|
|
- read
|
||
|
|
- write
|
||
|
|
- bash
|
||
|
|
|
||
|
|
writer:
|
||
|
|
role: |
|
||
|
|
Eres un escritor creativo.
|
||
|
|
Ayudas con textos, emails y documentos.
|
||
|
|
provider: litellm
|
||
|
|
model: llama3
|
||
|
|
tools:
|
||
|
|
- read
|
||
|
|
- write
|
||
|
|
|
||
|
|
analyst:
|
||
|
|
role: |
|
||
|
|
Eres un analista de datos.
|
||
|
|
Procesas archivos y extraes información.
|
||
|
|
provider: litellm
|
||
|
|
model: mixtral-local
|
||
|
|
tools:
|
||
|
|
- read
|
||
|
|
- bash
|
||
|
|
- glob
|
||
|
|
- grep
|