01 · Foundation
¿Qué es un Agente de IA Local?What Is a Local AI Agent?
Un agente de IA es un sistema que percibe contexto, razona, decide acciones y ejecuta pasos para cumplir objetivos definidos. A diferencia de un chatbot simple, un agente puede usar herramientas, mantener memoria, dividir tareas y coordinarse con otros agentes.
An AI agent is a system that perceives context, reasons, chooses actions, and executes steps toward a defined goal. Unlike a simple chatbot, an agent can use tools, keep memory, decompose work, and coordinate with other agents.
Cuando el agente es local, corre dentro de tu propio entorno y evita enviar información sensible a servicios externos. Eso mejora privacidad, control operativo y previsibilidad de costos.
When the agent is local, it runs within your own environment and avoids sending sensitive information to third-party services. That improves privacy, operational control, and cost predictability.
Capacidades típicasTypical capabilities
- Planificación:Planning: descomponer tareas complejas.break down complex tasks.
- Herramientas:Tools: usar APIs, web, archivos y código.use APIs, web, files, and code.
- Memoria:Memory: retener contexto y conocimiento útil.retain context and useful knowledge.
- Colaboración:Collaboration: trabajar con otros agentes especializados.work with other specialized agents.
Por qué localWhy local-first
- Mayor privacidad y menor exposición regulatoria.Higher privacy and lower regulatory exposure.
- Disponibilidad offline para ciertos flujos.Offline availability for selected workflows.
- Costo operativo más estable después del hardware.More stable operating cost after hardware setup.
- Mayor control de tuning, almacenamiento y logs.Stronger control over tuning, storage, and logs.
| CriterioCriterion |
LocalLocal |
NubeCloud |
| Costo operativoOperating cost | Casi cero tras hardwareNear-zero after hardware | Pago por uso / tokensUsage-based / token costs |
| PrivacidadPrivacy | Datos permanecen dentroData stays in-house | Depende del proveedorDepends on vendor policies |
| OfflineOffline | Sí, según el stackYes, depending on stack | No normalmenteUsually no |
| EscalabilidadScalability | Limitada por hardwareLimited by hardware | Amplia y elásticaBroad and elastic |
02 · Architecture
Arquitectura del SistemaSystem Architecture
Un stack local de agentes suele organizarse en cuatro capas: motor LLM, orquestación, herramientas/memoria e interfaz/automatización. Pensarlo así ayuda a diseñar con claridad y a escalar sin mezclar responsabilidades.
A local agent stack is usually organized into four layers: the LLM engine, orchestration, tools/memory, and interface/automation. Thinking in layers makes design clearer and scaling easier.
- Motor LLM:LLM engine: Ollama ejecuta modelos locales y expone una API en localhost.Ollama runs local models and exposes a localhost API.
- Orquestación:Orchestration: CrewAI, LangGraph o AutoGen coordinan roles, estados y flujos.CrewAI, LangGraph, or AutoGen coordinate roles, states, and flows.
- Memoria y herramientas:Memory and tools: RAG, bases vectoriales, archivos, búsqueda y ejecución.RAG, vector stores, files, search, and execution tools.
- Interfaz y automatización:Interface and automation: n8n, dashboards, Studio UIs o apps web.n8n, dashboards, Studio UIs, or web apps.
Lectura ejecutivaExecutive read
La mejor práctica es desacoplar el modelo del framework. Así puedes cambiar de modelo o proveedor sin rehacer toda la lógica del agente.
A strong practice is to decouple the model from the framework. That lets you swap models or providers without rebuilding your full agent logic.
03 · Models
Modelos LLM para Uso LocalLLMs for Local Use
LLaMA / Qwen / Mistral
Buenos candidatos para análisis general, productividad, redacción técnica y automatizaciones con costo controlado.
Strong candidates for general analysis, productivity, technical writing, and cost-conscious automation.
DeepSeek R1
Especialmente atractivo para razonamiento, código y tareas donde importa la secuencia lógica.
Especially attractive for reasoning, coding, and tasks where logical sequencing matters.
| PerfilProfile |
RAM |
VRAM |
Modelo recomendadoRecommended model |
Uso típicoTypical use |
| BásicoBasic | 16 GB | — | Mistral 7B | pruebas y aprendizajetesting and learning |
| IntermedioMid-tier | 32 GB | 8 GB | LLaMA 8B | proyectos personalespersonal projects |
| AvanzadoAdvanced | 64 GB | 16 GB | LLaMA 70B Q4 | proyectos profesionalesprofessional builds |
| WorkstationWorkstation | 128+ GB | 24 GB | DeepSeek R1 | producción exigentedemanding production use |
Regla simpleSimple rule
Si vas empezando, prioriza velocidad y estabilidad antes que tamaño máximo de modelo. Un modelo más pequeño pero usable enseña más que uno gigante que frena tu iteración.
If you are just starting, prioritize speed and stability over the biggest possible model. A smaller but usable model teaches more than a huge one that slows every iteration.
04 · Frameworks
Frameworks: análisis técnicoFrameworks: technical view
CrewAI
Es el punto de entrada más amigable para pensar en agentes como un equipo con roles, objetivos y tareas bien definidas.
It is the friendliest entry point for thinking about agents as a team with roles, goals, and clearly defined tasks.
- Fácil de entender y prototipar.Easy to understand and prototype.
- Muy bueno para workflows secuenciales.Great for sequential workflows.
- Menos fuerte para grafos cíclicos complejos.Less strong for complex cyclic graphs.
Python · CrewAI + Ollama
local stack
from crewai import Agent, Task, Crew, Process
from langchain_ollama import OllamaLLM
llm = OllamaLLM(
model="llama3.1:70b",
base_url="http://localhost:11434"
)
researcher = Agent(
role="Investigador Senior",
goal="Investigar y sintetizar información actualizada",
backstory="Experto en análisis técnico",
llm=llm,
verbose=True
)
writer = Agent(
role="Redactor Técnico",
goal="Convertir hallazgos en un reporte claro",
backstory="Especialista en contenido técnico",
llm=llm
)
crew = Crew(
agents=[researcher, writer],
tasks=[research_task],
process=Process.sequential
)
result = crew.kickoff()
LangGraph
Brilla cuando necesitas estado, rutas condicionales, checkpoints y validación humana antes de pasar al siguiente paso.
It shines when you need state, conditional routing, checkpoints, and human validation before moving forward.
Python · LangGraph
stateful workflow
from langgraph.graph import StateGraph, END
from typing import TypedDict, Annotated
import operator
class AgentState(TypedDict):
messages: Annotated[list, operator.add]
approved: bool
def route_after_review(state: AgentState):
if state["approved"]:
return "write_report"
return "research_again"
AutoGen y n8n
AutoGen es útil para coordinación conversacional entre agentes. n8n es excelente para integrar triggers, formularios, correo, APIs y procesos no-code alrededor del stack local.
AutoGen is useful for conversation-based multi-agent coordination. n8n is excellent for integrating triggers, forms, email, APIs, and no-code processes around the local stack.
05 · Comparison
Tabla comparativa de frameworksFramework comparison table
| Framework |
DificultadDifficulty |
LocalesLocal models |
Multi-agenteMulti-agent |
Ideal paraBest for |
| CrewAI | BajaLow | ✅ | ✅ | prototipado rápidofast prototyping |
| LangGraph | AltaHigh | ✅ | ✅ | producción y lógica complejaproduction and complex logic |
| AutoGen | MediaMedium | ✅ | ✅ | coordinación conversacionalconversation-based coordination |
| n8n + Ollama | Muy bajaVery low | ✅ | ⚠️ | automatización no-codeno-code automation |
06 · Setup
Guía de instalaciónInstallation guide
Ollama
Bash · Ollama setup
local inference
curl -fsSL https://ollama.com/install.sh | sh
ollama pull llama3.1:8b
ollama pull llama3.1:70b
ollama pull mistral:7b
ollama pull deepseek-r1:70b
curl http://localhost:11434/api/tags
CrewAI
Bash · Python environment
agents
python -m venv venv_crewai
source venv_crewai/bin/activate
pip install crewai crewai-tools langchain-ollama
Docker Compose
YAML · docker-compose.yml
services
version: '3.8'
services:
ollama:
image: ollama/ollama:latest
volumes:
- ollama_data:/root/.ollama
ports:
- "11434:11434"
n8n:
image: n8nio/n8n:latest
ports:
- "5678:5678"
environment:
- OLLAMA_BASE_URL=http://ollama:11434
07 · Use cases
Casos de uso realesPractical use cases
InvestigaciónResearch
Buscar, leer, sintetizar y redactar con trazabilidad.Search, read, synthesize, and draft with traceability.
Documentos sensiblesSensitive documents
RAG local para contratos, facturas, políticas y expedientes.Local RAG for contracts, invoices, policies, and records.
CódigoCode
Generación, revisión, pruebas y documentación técnica.Generation, review, testing, and technical documentation.
Idea claveKey idea
Los mejores resultados suelen venir de agentes más pequeños y especializados, no de un solo agente intentando hacerlo todo.
The best outcomes often come from smaller specialized agents, not from one giant agent trying to do everything.
08 · Production
Buenas prácticas y producciónBest practices for production
- Prompts versionados:Versioned prompts: trátalos como código.treat them like code.
- Memoria responsable:Responsible memory: resume contexto y apóyate en bases vectoriales.summarize context and rely on vector stores.
- Seguridad:Security: no expongas Ollama directo a internet sin controles.do not expose Ollama directly to the internet without controls.
- Observabilidad:Observability: monitorea trazas, latencia y consumo.monitor traces, latency, and usage.
09 · Outlook
Tendencias 20262026 trends
- Protocolos de interoperabilidad entre agentes.Interoperability protocols between agents.
- Memoria persistente mejor estructurada.Better structured persistent memory.
- Evaluación automática de calidad antes de responder.Automatic quality checks before response delivery.
- Más multimodalidad dentro del entorno local.More multimodality inside the local environment.
10 · Decision
Conclusión y mapa de decisiónConclusion and decision map
Ruta recomendadaRecommended path
- Sin código: n8n + Ollama + interfaz simple.No-code: n8n + Ollama + simple interface.
- Aprendizaje: CrewAI + modelo mediano.Learning: CrewAI + medium-size model.
- Producción: LangGraph + observabilidad + guardrails.Production: LangGraph + observability + guardrails.
Mensaje finalFinal takeaway
Empieza simple, valida una tarea útil y luego escala. La combinación de agentes locales + automatización te da una base potente para aprendizaje, negocio y flujos internos sensibles.
Start simple, validate one useful workflow, and then scale. Local agents plus automation give you a powerful base for learning, business, and sensitive internal processes.