Paradigma en el que un LLM no responde a un prompt aislado, sino que recibe un objetivo y decide qué pasos dar: invoca herramientas, evalúa resultados, delega en sub-agentes y continúa hasta cumplir el objetivo. Se distingue de un chatbot tradicional en que el camino no está predefinido.
Ejemplo
Un agente comercial recibe "consigue 10 leads de clínicas dentales" y decide qué tools usar (búsqueda, enriquecimiento, scoring, CRM) sin que tú le digas el orden.
RAG (Retrieval-Augmented Generation)
Técnica que combina un modelo de lenguaje con búsqueda sobre una base de conocimiento propia (documentos, BD, wiki). El LLM recibe los documentos relevantes como contexto y responde solo con lo que encuentra, no inventa. Requiere vector DB y estrategia de chunking.
Ejemplo
Un agente de soporte que responde sobre tus 300 páginas de documentación interna sin alucinar.
Relacionados:Vector DBEmbeddingContext window
MCP (Model Context Protocol)
Estándar abierto impulsado por Anthropic en 2024 y consolidado en 2026 para que agentes IA consuman herramientas y datos de terceros de forma uniforme. Se puede ser cliente MCP (usar servidores externos) o servidor MCP (exponer tus datos a agentes).
Ejemplo
Conectar un agente a Gmail, Calendar, Notion y GitHub vía MCP servers oficiales, sin escribir integraciones a medida.
Arquitectura en la que un orquestador coordina sub-agentes especializados (comercial, ops, research) que cooperan para resolver una tarea compleja. Cada sub-agente tiene su prompt, sus tools y su memoria; el orquestador decide handoffs.
Relacionados:OrchestratorHandoffAgentic AI
Principio por el que las políticas de gobernanza de agentes (límites de gasto, aprobación humana, redacción de PII, modelos permitidos) viven en código versionado en el repositorio y se aplican automáticamente en runtime. Revisable en pull request, auditable por regulador.
Ejemplo
Un archivo YAML declara que cualquier refund > 100€ requiere aprobación en Slack antes de ejecutarse.
Capacidad de un LLM de invocar funciones externas (APIs, bases de datos, shell) con inputs tipados y recibir outputs que incorpora al razonamiento. Core de los agentes. Soportado por Claude, GPT-5 y Gemini con schemas JSON.
Plataforma de Anthropic (GA abril 2026) que hospeda y opera agentes en producción: sandboxing, state management, tool execution, error recovery. OpenClaw es compatible con este protocolo.
Relacionados:OpenAI Agents SDKAgentic AI
Framework oficial de OpenAI para agentes multi-step con handoffs, guardrails y tracing. Reemplazó a la antigua Assistants API. Compatible con routing multi-modelo desde OpenClaw.
Relacionados:Claude Managed AgentsTool use
Validaciones y filtros aplicados antes y después de un LLM o tool call: validación de schema, detección de PII, control de contenido, límites de gasto, aprobación humana. Son el equivalente a WAF para agentes.
Relacionados:Prompt injectionTool use
Patrón en el que tareas críticas (acciones irreversibles, decisiones con consecuencia legal o económica alta) requieren aprobación humana antes de ejecutarse. En OpenClaw se configura por política, no por código — el desarrollador no decide qué aprueba el humano; lo decide el compliance officer en YAML.
Relacionados:Governance-as-codePolicy
Selección automática del modelo óptimo por tarea según coste, latencia y calidad. Ejemplo: Claude Haiku para clasificación rápida de alto volumen, Claude Opus para razonamiento complejo, Gemini para contexto ultra-largo.
Criterio emergente en 2026 con el que los compradores evalúan agencias de IA: gobernanza, orquestación e integración en workflows existentes sin introducir riesgo nuevo. No basta con "hacemos agentes"; hay que probar que se operan con rigor.
Relacionados:Governance-as-codeAgentic AI