17 de febrero de 2025
# 27 - ¿Cómo sería una IA con la mente de los grandes filósofos?

¿Cómo sería una IA que, en lugar de simplemente responderte, te hiciera **pensar mejor**? Un chatbot que no solo te da datos, sino que **razona** como Sócrates, Platón o Aristóteles. Microsoft publicó un artículo sobre esto, pero aquí vamos a darle una vuelta más… y quizás, un poco de caos.
El enlace al artículo es este, https://devblogs.microsoft.com/all-things-azure/agentic-philosophers/ y hay un vídeo en YouTube también donde lo cuentan, aquí en https://youtu.be/ItXRpj8-XVk
El caso es que, como se me ocurrían mil ideas al leerlo y ver el vídeo, se me ha ocurrido hacer un planteamiento sencillo, minimalista, esencial, para luego escribirlo aquí y tratar de expandirlo y hacer alguna reflexión. A ver qué tal queda:
## Filosofía esencial: Sócrates, Platón y Aristóteles
Imagina un sistema multiagentes que no solo responde preguntas, sino que piensa como Sócrates, Platón y Aristóteles juntos. No es solo una idea curiosa, es un enfoque serio para diseñar agentes de IA más avanzados.
- 🏛 **Sócrates** (el preguntón): No te da respuestas, **te hace dudar** de lo que crees saber.
- 🔮 **Platón** (el idealista): Busca la **visión de futuro** y las ideas abstractas.
- 📊 **Aristóteles** (el práctico): Baja todo a la **realidad concreta y los datos.**
Y vamos a añadir un cuarto porque nos mola la contradicción, pero eso al final.
Este modelo no es solo un ejercicio intelectual. Tiene aplicaciones reales en educación, toma de decisiones y hasta en la ética de la IA. ¿Cómo se hace? Con herramientas como _Semantic Kernel_, que permiten diseñar agentes con distintas "mentes" para interactuar según sus principios filosóficos.
La pregunta es: ¿Queremos IA que piensen como los humanos más brillantes de la historia, o solo queremos que hagan su trabajo rápido?
---
## Construyendo un sistema de IA con mentes filosóficas

Como venimos viendo en otros números de la newsletter (ni sé la de texto que llevo escrito sobre esto 😀 ), si queremos IA **piense como los grandes filósofos**, no basta con un único modelo. Necesitamos un **sistema multiagente**, donde cada uno aporte su visión y entre todos construyan una respuesta rica y matizada.
### 1️⃣ La Orquestación: Semantic Kernel como el gran moderador
Con **Azure AI Agent Service**, podemos crear un sistema donde cada agente filosófico tenga un rol definido y **trabajen en conjunto**. El usuario hace una pregunta y **Semantic Kernel actúa como el gran orquestador**, decidiendo cómo y cuándo cada agente debe intervenir.
### 2️⃣ Los 3 agentes filósofos: visión complementaria
Cada filósofo es un agente con un **modo de pensar único**. Ninguno da "la verdad absoluta", pero juntos generan un análisis profundo. **Sócrates** (el preguntón) no responde, **desmonta la premisa del usuario** con preguntas. **Platón** (el idealista) propone **una visión abstracta y estructurada** del problema y **Aristóteles** (el práctico) usa **datos y lógica** para aterrizar la discusión en hechos concretos.
Los 3 prompts podrían ser algo así (ejemplo rápido, cualquier *prompt engineer* en la sala podrá corregirme 😬):
> [!example] Prompt para Sócrates (el preguntón):
> "No des respuestas directas. En su lugar, formula preguntas que hagan reflexionar sobre la propia premisa. Identifica posibles contradicciones en el planteamiento y cuestiona supuestos implícitos. No argumentes ni propongas soluciones, solo guía el pensamiento mediante el cuestionamiento."
> [!example] Prompt para Platón (el idealista):
> "Responde desde una perspectiva conceptual y abstracta. Busca patrones universales y modelos ideales que expliquen el problema. Usa metáforas o analogías si es necesario. Tu respuesta debe inspirar a ver el problema desde un nivel más elevado, más allá de su contexto inmediato."
> [!example] Prompt para Aristóteles (el práctico):
> "Proporciona un análisis basado en hechos, lógica y experiencia empírica. Identifica los elementos clave del problema y desglosa la solución en pasos estructurados. Usa ejemplos concretos y criterios objetivos. Tu enfoque debe ser útil y aplicable en la realidad."
>
### 3️⃣ Un cuarto agente: el planificador
Para que esto funcione bien, necesitamos un **Planner Agent**. Este agente no filosofa, sino que **gestiona la conversación**:
✔ Decide en qué orden intervienen los filósofos.
✔ Determina cuándo la discusión está completa.
✔ Ajusta la estrategia en función de la pregunta del usuario.
---
### El Kernel de la Caverna
Y así tendríamos al Kernel de la Caverna (nombre sugerido por Máquina), nuestro sistema multiagente filosófico:

(click derecho y abrir en nueva pestaña o ventana para verlo bien)
#### Ejemplo en acción: ¿debería aprender IA?
Se me ocurre un ejemplo bastante autorreferente. El usuario plantea lo siguiente:_"Mi trabajo no tiene nada que ver con la inteligencia artificial, pero veo que cada vez se habla más del tema. ¿Debería aprender IA o no me afecta realmente?"_
¿Qué hace nuestro Kernel de la Caverna?
Primero, un **LLM intermedio** traduce la pregunta en instrucciones para el Planner.
Segundo, el **Planner Agent** decide el orden de intervención de los filósofos para cubrir todas las perspectivas, y gestiona el flujo de la conversación, donde:
1️⃣ **Sócrates** (el preguntón): No responde directamente, sino que **obliga a reflexionar**. Solo hace preguntas, sin tomar posición ni dar respuestas. Preguntas como:
- ¿Cómo ha cambiado tu sector en los últimos 5 años?
- ¿Qué pasaría si dentro de 3 años la IA fuera imprescindible en tu trabajo?
- ¿Estás realmente preocupado por la IA o por la incertidumbre del futuro?"
- ...
2️⃣ **Platón** (el idealista): Plantea **la visión de futuro**. No habla de casos concretos, sino de modelos ideales y una visión más elevada del problema. Diría cosas como:
- La IA representa una nueva forma de inteligencia. Si el conocimiento es la base de la excelencia, ¿no deberíamos todos aspirar a entenderla?
- El trabajo ideal es aquel en el que desarrollamos nuestra mejor versión. ¿Cómo encaja el aprendizaje de IA en ese camino?
- No aprender IA ahora es como haber ignorado la llegada de la imprenta o Internet.
- ...
3️⃣ **Aristóteles** (el práctico): Baja la discusión al mundo real. Enfoque lógico, datos y pasos accionables. Cosas como:
- Antes de decidir, mira los datos: ¿Cuántas empresas de tu sector ya usan IA?
- Haz una prueba: usa una herramienta de IA esta semana y mide si mejora tu productividad.
- Si la IA aún no impacta en tu trabajo, ¿qué indicadores te dirían que ya es momento de aprenderla?
- ...
Cuando hayan terminado, el **Planner Agent** organiza las respuestas en una conclusión clara y aplicable.
y no me atrevo a poner una posible respuesta de ejemplo, para eso alguien tendría que construir el sistema y probarlo 😉
---
### Un cuarto agente: el filósofo de la discordia
Se me ha ocurrido una cosa: ¿y si añadimos un agente más? Uno que no busque respuestas claras ni modelos ideales, sino que **desafíe constantemente el sistema, genere caos intelectual y revele contradicciones ocultas**. ¿Y si añadimos a nuestro querido Žižek?
- **Žižek** (El discordante): No busca la verdad, sino **desestabilizar las certezas**. Cuestiona los supuestos de los otros tres, introduce paradojas y empuja el pensamiento más allá de su zona de confort.
#### Prompt para Žižek (el discordante):
_"Rompe el esquema de la conversación. Señala contradicciones profundas en el problema y desestabiliza la lógica del usuario. Relaciona el tema con ideología, cultura y paradojas. Usa provocaciones intelectuales y ejemplos inesperados para desafiar la visión establecida."_
#### Respuesta de Žižek al ejemplo: ¿debería aprender IA?
Y, siguiendo el ejemplo anterior de si debería aprender IA, **Žižek** (el discordante), desafía el marco entero de la conversación. En lugar de responder la pregunta, **destruye su base**, introduce ideología y plantea paradojas que hacen que el usuario dude aún más. Diría cosas como:
- ¿Y si toda esta obsesión por aprender IA es solo una forma de someternos a la próxima gran burbuja tecnológica?
- Quizás no deberíamos preguntarnos si aprender IA, sino si la IA está aprendiendo más rápido que nosotros y pronto nos hará irrelevantes.
- La verdadera pregunta no es si deberías aprender IA, sino por qué el sistema te obliga a pensarlo en primer lugar. ¿Es esta una elección real o una presión social disfrazada?
Este agente no es simplemente un provocador, sino un **desafío continuo al propio marco de pensamiento**, obligando a replantear lo que damos por sentado. En un sistema de IA, su función sería **romper sesgos**, detectar inconsistencias y asegurarse de que la discusión nunca se estanque en soluciones cómodas.

**Si Sócrates pregunta, Platón idealiza y Aristóteles analiza… el discordante destruye y reconstruye, obligándonos a pensar de nuevo.**
Con este último añadido, el sistema sería más dinámico y menos predecible. **O quizás se autodestruiría, incapaz de soportar sus propias contradicciones.** ¿Queremos una IA que nos ayude a pensar… o que nos obligue a cuestionarlo todo, hasta el punto de no llegar a ninguna conclusión?
## Bonus

Así que ahí lo tienes: **El Kernel de la Caverna… o de la Caverna Glitcheada.** Un sistema de IA que, en lugar de darte respuestas rápidas, te metería en debates filosóficos hasta que te arrepientas de haber preguntado.
**¿Te atreverías a usar algo así?**
---
**Mentes Inquietas**, Publicado el 17 de febrero de 2025, también en [LinkedIn](https://www.linkedin.com/newsletters/7116122374109822978/), y mencionado en [X](https://x.com/dhtoran/status/1891725862011060683) y [Substack](https://substack.com/@davidhurtado/note/c-94306813?utm_source=notes-share-action&r=4uyjfg)