# Context Engineering: La IA no falla por tus prompts, falla por tu contexto
La mayoría de empresas creen que la clave está en cómo preguntas a la IA. En realidad, el impacto depende de qué contexto le das para trabajar
![[Context-engineering.webp]]
## 1. Introducción
En el uso de herramientas como ChatGPT, Copilot o cualquier agente de inteligencia artificial, solemos hablar de _prompt engineering_: la habilidad de formular bien una instrucción para obtener un mejor resultado. Pero cada vez resulta más evidente que esto es solo una parte de la ecuación. La otra, menos mencionada y mucho más crítica en entornos profesionales, es lo se denomina _context engineering_: cómo preparamos, estructuramos y controlamos la información que el modelo tiene disponible para trabajar.
La diferencia es sutil, pero tiene un impacto directo en la utilidad real de la IA en organizaciones y puestos de trabajo.
En el debate sobre inteligencia artificial se habla mucho de “escribir buenos prompts”.
Eso tiene valor, pero en una empresa el verdadero factor diferencial no está en cómo preguntas (habilidad que la IA está resolviendo ella sola), sino en **qué contexto le das a la IA** además de la pregunta.
Hay que plantearse tres preguntas clave antes de invertir en proyectos de IA generativa:
1. **¿Qué decisiones de negocio queremos mejorar?**
(No se trata de jugar con la IA, sino de acelerar cierres, reducir riesgos o aumentar ingresos).
2. **¿Qué contexto vamos a poner a disposición de la IA y en qué estado está?**
(¿Son datos curados, actualizados, gobernados? ¿O documentos dispersos y obsoletos?).
3. **¿Qué nivel de control necesitamos sobre seguridad, permisos y trazabilidad?**
(Porque sin esto, la IA puede ser brillante… pero inútil o peligrosa).
En este número vamos a diferenciar con claridad dos conceptos —**prompt engineering** y **context engineering**—, y sobre todo a entender por qué **el segundo es el que realmente determina el impacto en negocio**.
---
## 2. Prompt vs Context: el arte de preguntar y el arte de preparar el terreno
### 2.1 Prompt Engineering: el arte de preguntar
El _prompt engineering_ se ha convertido en un término de moda desde que los modelos generativos entraron en la conversación pública. Se refiere a las técnicas y trucos para mejorar una instrucción: desde dar un rol explícito al modelo (“actúa como profesor de matemáticas”), hasta estructurar una cadena de pasos (_chain-of-thought_) o proporcionar ejemplos previos (_few-shot prompting_).
- **Ventaja**: permite obtener respuestas más precisas y alineadas con lo que buscamos.
- **Limitación**: sigue dependiendo de la información que tenga el modelo a su alcance en ese momento. Si no tiene los datos relevantes en su contexto, ninguna ingeniería de prompts compensará esa carencia.
---
### 2.2. Context Engineering: el arte de preparar el terreno
Aquí es donde entra el _context engineering_. Más allá de cómo formulamos la pregunta, importa qué sabe el modelo, qué memoria tiene, qué información añadimos, cómo filtramos el ruido y cómo aseguramos que lo relevante esté disponible.
Ejemplos sencillos para un usuario de IA:
- Si pides un resumen de una reunión, el _prompt_ puede ser impecable, pero si no incluyes la transcripción y las notas de la reunión no son muy buenas, la IA no tiene nada que procesar.
- Si buscas continuidad en un proyecto largo, la clave no está solo en cómo redactas tu instrucción, sino en cómo gestionas la memoria de la IA para que arrastre decisiones previas y no “olvide” lo importante.
El _context engineering_ es la práctica de asegurar que la IA trabaje con el **entorno de información adecuado**. El prompt es la chispa; el contexto es el combustible.
---
### 2.3. Evolución en el tiempo
Podemos situar esta diferencia en una línea de evolución:
```mermaid
timeline
2022 : Popularización del prompt engineering
2023 : Primeras técnicas avanzadas (chain-of-thought, roles, few-shot)
2024 : Aparición de orquestadores y agentes: necesidad de gestionar memoria y fuentes
2025 : Context engineering se convierte en el reto principal: cómo dar a la IA el contexto correcto, fiable y actualizado
```
El paso natural del “jugar con prompts” a “diseñar contextos de trabajo” refleja cómo la IA deja de ser un juguete conversacional y empieza a integrarse en procesos reales de negocio.
---
## 3. Diferencias clave y cómo evaluar el contexto
|Aspecto|Prompt Engineering|Context Engineering|
|---|---|---|
|**Qué es**|Optimizar la instrucción que damos al modelo|Preparar y gestionar la información que recibe el modelo|
|**Objetivo**|Mejorar la forma de la pregunta|Mejorar la base de conocimiento y el alcance de la respuesta|
|**Nivel**|Micro (frases, roles, ejemplos)|Macro (memoria, datos, fuentes, permisos)|
|**Limitación**|No compensa ausencia de datos relevantes|Depende de la calidad, vigencia y curación de las fuentes|
|**Usuario final**|“Saber pedir”|“Saber qué información dar y cómo mantenerla”|
## 4. Factores de evaluación del contexto
No basta con entender la diferencia entre prompt y contexto: en una empresa hay que **evaluar el contexto como si fuera un activo estratégico**. Estos son los factores clave que cualquier comité debería considerar:
| Factor | Pregunta ejecutiva | Qué vigilar |
| ---------------- | -------------------------------------------- | -------------------------------------------------------- |
| **Relevancia** | ¿Qué decisiones mejora este contexto? | Si no está ligado a un proceso clave, será ruido. |
| **Calidad** | ¿Los datos son precisos y completos? | Fuentes duplicadas, errores, documentos mal formateados. |
| **Frescura** | ¿Cada cuánto se actualiza? | Riesgo de trabajar con versiones obsoletas. |
| **Cobertura** | ¿Qué áreas de negocio quedan dentro/fuera? | Lagunas que dejan respuestas sesgadas. |
| **Seguridad** | ¿Respeta permisos y accesos existentes? | Riesgo de fuga de información sensible. |
| **Trazabilidad** | ¿Podemos ver de dónde sale la respuesta? | Sin cita o fuente, no es utilizable en negocio. |
| **Latencia** | ¿Responde a tiempo para la operación? | Un insight que llega tarde es irrelevante. |
| **Coste** | ¿Cuál es el coste de mantenerlo y escalarlo? | Evitar que cada consulta sea insostenible. |
| **Riesgo** | ¿Qué no estamos dispuestos a asumir? | Cumplimiento legal, privacidad, propiedad intelectual. |
## 5. Modelo de madurez del contexto
La mayoría de organizaciones pasan por **cuatro niveles de evolución** al trabajar con IA generativa:
- **Nivel 0** – Uso puntual de prompts. Resultados útiles pero aislados.
- **Nivel 1** – Se añade recuperación de información (_RAG_) con documentos curados. Primer impacto en productividad.
- **Nivel 2** – Se orquesta con memoria operativa, conectores a sistemas (CRM, ERP, Graph) y métricas. El uso se vuelve transversal.
- **Nivel 3** – Agentes autónomos gestionan procesos con supervisión, telemetría y _guardrails_. Impacto directo en negocio.
---
## 6. Copilot y el contexto empresarial
Copilot resuelve parte del reto del _context engineering_ porque conecta directamente con las fuentes corporativas (correo, documentos, Teams, SharePoint, CRM si está integrado).
La **indexación semántica** permite que la IA no solo busque palabras, sino que **entienda la información de la empresa en su propio lenguaje**.
Pero es clave tener claras sus **fortalezas y límites**:
### 6.1. Lo que aporta
- **Conexión inmediata al Graph**: aprovecha la seguridad, permisos y jerarquía de Microsoft 365.
- **Semantic Index**: organiza y “traduce” los datos para que el modelo los entienda en contexto.
- **Acceso natural**: la empresa no necesita diseñar prompts complejos; basta con formular la necesidad.
- **Automatización parcial** del contexto: se reducen los costes de preparación manual.
### 6.2. Lo que no resuelve por sí solo
- **Fuentes externas**: sistemas fuera de Microsoft 365 requieren conectores y curación específica.
- **Calidad del contenido**: un documento obsoleto o mal clasificado sigue siendo un mal contexto.
- **Gobernanza y ciclo de vida**: Copilot no decide qué se archiva, qué se elimina ni quién es responsable de mantenerlo actualizado.
- **Expectativas irreales**: sin contexto empresarial sólido, las respuestas pueden sonar convincentes… pero ser incorrectas.
### 6.3. Métricas que todo ejecutivo debería exigir
- **% de respuestas con cita válida** (citabilidad real).
- **Tiempo medio de recuperación** (latencia aceptable para negocio).
- **Ratio de documentos obsoletos detectados** en consultas.
- **Cobertura**: qué % de repositorios clave está integrado.
- **Seguridad efectiva**: número de accesos bloqueados por permisos heredados.
---
## 7. Decisiones a tomar y errores a evitar por parte de los directivos
### 7.1. Decisiones
No es neceario volverse técnico para valorar todo esto: basta con **tomar unas pocas decisiones claras**:
- **Procesos prioritarios** → ¿Dónde queremos el primer impacto (finanzas, clientes, operaciones)?
- **Fuentes mínimas viables** → ¿Qué repositorios necesitamos conectar y con qué frecuencia se actualizan?
- **Métricas de éxito** → ¿Cómo sabremos en cuatro semanas si funciona (citas válidas, tiempo de respuesta, reducción de horas)?
- **Riesgos no negociables** → ¿Qué no aceptamos (uso de datos sensibles, incumplimiento regulatorio, respuestas sin trazabilidad)?
- **Roles y responsabilidades** → ¿Quién cura el contenido, quién supervisa resultados y quién mantiene el sistema?
Con estas cinco respuestas, cualquier ejecutivo puede alinear expectativas y dar luz verde a un piloto serio.
### 7.2. Errores comunes (y cómo evitarlos)
- **Pensar que “más datos es mejor”** → La clave no es volumen, sino relevancia y curación.
- **Confiar en la memoria mágica de la IA** → Define qué se guarda, cuánto dura y quién lo gestiona.
- **Suponer que todo se integra solo** → Sistemas externos y documentos desordenados requieren trabajo de preparación.
- **Aceptar respuestas sin fuente** → Si no puedes auditar de dónde viene, no deberías usarlo en negocio.
- **Dejarlo en manos de TI únicamente** → Esto va de negocio: la tecnología habilita, pero la dirección decide.
---
## Cierre
![[Context-engineering-2.webp]]
En IA generativa, **el prompt define la intención; el contexto define la capacidad**.
Saber preguntar está bien, pero es más importante preparar el terreno para que la IA pueda trabajar con las reglas, datos y objetivos de la empresa.