# Los 6 niveles del contexto de la IA
![[6-niveles-contexto.webp]]
_(Segunda entrega de la serie sobre Context Engineering. Tienes las publicaciones relacionadas, la intro [46 Context Engineering](46-Context-engineering.md) y el cierre [55 Diseñar, gobernar y medir: el método para que la IA funcione como te han prometido](55-Contexto-Diseñar-gobernar-y-medir.md))_
## El contexto lo es todo
Ya hemos pasado la era del mal llamado *prompt engineering*. El prompt importa, sí, pero es solo **la última capa** de algo mucho más potente: el contexto.
Un asistente no razona desde cero. Interpreta lo que le pedimos en función de lo que ya sabe, de cómo está configurado y de la información que tiene a su alcance. Podemos imaginarlo como un edificio de varios pisos: en los cimientos están los datos que lo formaron, y en la azotea, nuestra pregunta final. Cuanto mejor entendemos esa arquitectura y qué hay en cada piso, mejor sabemos comunicarnos con él.
---
## Nivel 1 - Los datos de entrenamiento
Es el conocimiento general que el modelo aprendió antes de salir al mundo. Libros, artículos, páginas web, código, conversaciones… todo lo que el modelo incorporó para aprender a relacionar ideas y producir texto coherente.
Aquí no hay nada sobre ti ni sobre tus proyectos: es conocimiento general del mundo, como la base cultural de una persona antes de entrar en una conversación.
Los datos de entrenamiento le dan al modelo un conocimiento general del mundo muy potente y patrones de razonamiento muy interesantes, pero ojo con los datos específicos. Los datos específicos que tiene en su entrenamiento no son fiables. Solo son predicciones. Y dato que no tiene, dato que se puede inventar.
---
## Nivel 2 - El prompt del sistema
Es lo que el **proveedor** del modelo escribió para definir su personalidad, tono y límites. Ahí se decide si el asistente debe sonar formal o coloquial, si puede opinar o no, si debe priorizar la claridad o la precisión técnica. No podemos editarlo, e influye mucho en cómo interpreta nuestros prompts mensajes.
Es, por así decirlo, **el carácter que el fabricante le da al modelo**. Si ChatGPT es buenrollista, Claude es aburrido o Copilot es conservador y no te da el dato si no está seguro, es porque OpenAI, Anthropic y Microsoft lo han implementado así en los prompts de sistema.
---
## Nivel 3 -Las preferencias del usuario
Este es el primer nivel en el que podemos influir. Aquí se recogen nuestros ajustes: tono preferido, formato de salida, nivel de detalle o idioma.
Es opcional, y son configuraciones que ayudan a que el modelo te responda como tú prefieres, no de forma genérica. Equivale a explicarle a tu becario cómo quieres que te entregue un trabajo: breve y visual, o más analítico y desarrollado.
Yo, por ejemplo, le tengo dicho aquí que no use emojis en el texto.
---
## Nivel 4 - La memoria de conversaciones pasadas
Es un nivel aún **un poco experimental**, pero clave para el futuro. Algunos modelos, como ChatGPT o Copilot, empiezan a tirar de memoria (recordar partes de conversaciones anteriores o recordar ideas específicas a petición del usuario) y a adaptar sus respuestas a tus hábitos o intereses. Está en sus primeras fases: a veces recuerda demasiado, a veces no llega.
Pero a medida que evolucione, esta memoria permitirá que la experiencia sea más **personalizada y coherente** entre sesiones. Algo parecido a trabajar con un ayudante que ya te conoce hace tiempo y sabe lo que te gusta
---
## Nivel 5 - Los documentos adjuntos
Aquí es donde el contexto se vuelve realmente útil. Los documentos que subes o enlazas --presentaciones, informes, actas, notas de reuniones-- amplían el campo de comprensión del asistente.
En los **proyectos de ChatGPT**, los **Notebooks de Copilot** o de **NotebookLM** estos archivos permanecen disponibles en todas las conversaciones del mismo espacio, de modo que el modelo puede usarlos sin que tengas que volver a cargarlos cada vez. Si estás trabajando en un texto y le adjuntas un documento con la guía de estilo y otro con la bibliografía, puedes pedirle que los use sin tener que pegarle los textos en el chat.
Este nivel es el puente entre lo que la IA sabe del mundo y lo que tú puedes añadirle del contexto. Sé generoso dándole contexto a la IA en forma de documentos adjuntos. Pero ojo, si le das demasiado, puede liarse.
### Bonus: Markdown
Aprende Markdown. Es muy sencillo. Lo puedes editar con cualquier editor de texto. Es el formato del futuro.
Markdown es un formato de texto enriquecido muy simple que la IA entiende mucho mejor que un pdf o un docx. Si la IA tiene que invertir tiempo en abrir, leer, interpretar el pdf, es tiempo que le estás quitando al trabajo real. Si hablamos de Copilot para Microsoft 365, docx es nativo y lo entiende mejor que un PDF, pero no tan bien como un Markdown.
Puedes pedirle a la propia IA que te genere un documento Markdown a partir de un documento más complejo. Mejor, puedes pedirle que te genere *un fichero Markdown estructurado para la IA*.
### Bonus 2: procesos de razonamiento
Este es un tema avanzado que trataremos en otro número, pero ve pensando que tus documentos adjuntos de contexto no tienen por qué ser simplemente datos. Puedes darle a la IA un documento con un proceso de razonamiento complejo para que lo use de guía. El resultado puede ser espectacular.
---
## Nivel 6 - El prompt del usuario
Y por fin llegamos al nivel visible más: tu mensaje, la pregunta o instrucción que escribes (o dictas). La mal llamada *ingeniería* por los vendedores de cursos de ChatGPT.
El prompt es el punto de contacto entre todas las capas anteriores. No necesita ser perfecto, solo **consciente**: breve, claro, con los detalles que permitan completar lo que el contexto aún no contiene.
De hecho, dictar de viva voz en vez de escribir puede ser una buena práctica. Al hablar de manera natural es más fácil añadir matices que en un texto escrito tendemos a omitir.
---
# El arte de construir contexto
Usar bien un asistente de IA no consiste en memorizar trucos de prompt. Consiste en **entender de qué capas dispone** y cómo combinarlas. La mayoría de los problemas no vienen de que el modelo “no entienda”, sino de que no tiene con qué entenderte.
Cuanto más rico y mejor bien estructurado sea el contexto que le proporcionas, mejor será la respuesta.