17 de febrero de 2025 # 27 - ¿Cómo sería una IA con la mente de los grandes filósofos? ![](Agentes-y-filósofos.webp) ¿Cómo sería una IA que, en lugar de simplemente responderte, te hiciera **pensar mejor**? Un chatbot que no solo te da datos, sino que **razona** como Sócrates, Platón o Aristóteles. Microsoft publicó un artículo sobre esto, pero aquí vamos a darle una vuelta más… y quizás, un poco de caos. El enlace al artículo es este, https://devblogs.microsoft.com/all-things-azure/agentic-philosophers/ y hay un vídeo en YouTube también donde lo cuentan, aquí en https://youtu.be/ItXRpj8-XVk El caso es que, como se me ocurrían mil ideas al leerlo y ver el vídeo, se me ha ocurrido hacer un planteamiento sencillo, minimalista, esencial, para luego escribirlo aquí y tratar de expandirlo y hacer alguna reflexión. A ver qué tal queda: ## Filosofía esencial: Sócrates, Platón y Aristóteles Imagina un sistema multiagentes que no solo responde preguntas, sino que piensa como Sócrates, Platón y Aristóteles juntos. No es solo una idea curiosa, es un enfoque serio para diseñar agentes de IA más avanzados. - 🏛 **Sócrates** (el preguntón): No te da respuestas, **te hace dudar** de lo que crees saber. - 🔮 **Platón** (el idealista): Busca la **visión de futuro** y las ideas abstractas. - 📊 **Aristóteles** (el práctico): Baja todo a la **realidad concreta y los datos.** Y vamos a añadir un cuarto porque nos mola la contradicción, pero eso al final. Este modelo no es solo un ejercicio intelectual. Tiene aplicaciones reales en educación, toma de decisiones y hasta en la ética de la IA. ¿Cómo se hace? Con herramientas como _Semantic Kernel_, que permiten diseñar agentes con distintas "mentes" para interactuar según sus principios filosóficos. La pregunta es: ¿Queremos IA que piensen como los humanos más brillantes de la historia, o solo queremos que hagan su trabajo rápido? --- ## Construyendo un sistema de IA con mentes filosóficas ![](Agentes-y-filósofos-4.jpg) Como venimos viendo en otros números de la newsletter (ni sé la de texto que llevo escrito sobre esto 😀 ), si queremos IA **piense como los grandes filósofos**, no basta con un único modelo. Necesitamos un **sistema multiagente**, donde cada uno aporte su visión y entre todos construyan una respuesta rica y matizada. ### 1️⃣ La Orquestación: Semantic Kernel como el gran moderador Con **Azure AI Agent Service**, podemos crear un sistema donde cada agente filosófico tenga un rol definido y **trabajen en conjunto**. El usuario hace una pregunta y **Semantic Kernel actúa como el gran orquestador**, decidiendo cómo y cuándo cada agente debe intervenir. ### 2️⃣ Los 3 agentes filósofos: visión complementaria Cada filósofo es un agente con un **modo de pensar único**. Ninguno da "la verdad absoluta", pero juntos generan un análisis profundo. **Sócrates** (el preguntón) no responde, **desmonta la premisa del usuario** con preguntas. **Platón** (el idealista) propone **una visión abstracta y estructurada** del problema y **Aristóteles** (el práctico) usa **datos y lógica** para aterrizar la discusión en hechos concretos. Los 3 prompts podrían ser algo así (ejemplo rápido, cualquier *prompt engineer* en la sala podrá corregirme 😬): > [!example] Prompt para Sócrates (el preguntón): > "No des respuestas directas. En su lugar, formula preguntas que hagan reflexionar sobre la propia premisa. Identifica posibles contradicciones en el planteamiento y cuestiona supuestos implícitos. No argumentes ni propongas soluciones, solo guía el pensamiento mediante el cuestionamiento." > [!example] Prompt para Platón (el idealista): > "Responde desde una perspectiva conceptual y abstracta. Busca patrones universales y modelos ideales que expliquen el problema. Usa metáforas o analogías si es necesario. Tu respuesta debe inspirar a ver el problema desde un nivel más elevado, más allá de su contexto inmediato." > [!example] Prompt para Aristóteles (el práctico): > "Proporciona un análisis basado en hechos, lógica y experiencia empírica. Identifica los elementos clave del problema y desglosa la solución en pasos estructurados. Usa ejemplos concretos y criterios objetivos. Tu enfoque debe ser útil y aplicable en la realidad." > ### 3️⃣ Un cuarto agente: el planificador Para que esto funcione bien, necesitamos un **Planner Agent**. Este agente no filosofa, sino que **gestiona la conversación**: ✔ Decide en qué orden intervienen los filósofos. ✔ Determina cuándo la discusión está completa. ✔ Ajusta la estrategia en función de la pregunta del usuario. --- ### El Kernel de la Caverna Y así tendríamos al Kernel de la Caverna (nombre sugerido por Máquina), nuestro sistema multiagente filosófico: ![](Agentes-y-filósofos-Kernel-de-la-caverna.jpg) (click derecho y abrir en nueva pestaña o ventana para verlo bien) #### Ejemplo en acción: ¿debería aprender IA? Se me ocurre un ejemplo bastante autorreferente. El usuario plantea lo siguiente:_"Mi trabajo no tiene nada que ver con la inteligencia artificial, pero veo que cada vez se habla más del tema. ¿Debería aprender IA o no me afecta realmente?"_ ¿Qué hace nuestro Kernel de la Caverna? Primero, un **LLM intermedio** traduce la pregunta en instrucciones para el Planner. Segundo, el **Planner Agent** decide el orden de intervención de los filósofos para cubrir todas las perspectivas, y gestiona el flujo de la conversación, donde: 1️⃣ **Sócrates** (el preguntón): No responde directamente, sino que **obliga a reflexionar**. Solo hace preguntas, sin tomar posición ni dar respuestas. Preguntas como: - ¿Cómo ha cambiado tu sector en los últimos 5 años? - ¿Qué pasaría si dentro de 3 años la IA fuera imprescindible en tu trabajo? - ¿Estás realmente preocupado por la IA o por la incertidumbre del futuro?" - ... 2️⃣ **Platón** (el idealista): Plantea **la visión de futuro**. No habla de casos concretos, sino de modelos ideales y una visión más elevada del problema. Diría cosas como: - La IA representa una nueva forma de inteligencia. Si el conocimiento es la base de la excelencia, ¿no deberíamos todos aspirar a entenderla? - El trabajo ideal es aquel en el que desarrollamos nuestra mejor versión. ¿Cómo encaja el aprendizaje de IA en ese camino? - No aprender IA ahora es como haber ignorado la llegada de la imprenta o Internet. - ... 3️⃣ **Aristóteles** (el práctico): Baja la discusión al mundo real. Enfoque lógico, datos y pasos accionables. Cosas como: - Antes de decidir, mira los datos: ¿Cuántas empresas de tu sector ya usan IA? - Haz una prueba: usa una herramienta de IA esta semana y mide si mejora tu productividad. - Si la IA aún no impacta en tu trabajo, ¿qué indicadores te dirían que ya es momento de aprenderla? - ... Cuando hayan terminado, el **Planner Agent** organiza las respuestas en una conclusión clara y aplicable. y no me atrevo a poner una posible respuesta de ejemplo, para eso alguien tendría que construir el sistema y probarlo 😉 --- ### Un cuarto agente: el filósofo de la discordia Se me ha ocurrido una cosa: ¿y si añadimos un agente más? Uno que no busque respuestas claras ni modelos ideales, sino que **desafíe constantemente el sistema, genere caos intelectual y revele contradicciones ocultas**. ¿Y si añadimos a nuestro querido Žižek? - **Žižek** (El discordante): No busca la verdad, sino **desestabilizar las certezas**. Cuestiona los supuestos de los otros tres, introduce paradojas y empuja el pensamiento más allá de su zona de confort. #### Prompt para Žižek (el discordante): _"Rompe el esquema de la conversación. Señala contradicciones profundas en el problema y desestabiliza la lógica del usuario. Relaciona el tema con ideología, cultura y paradojas. Usa provocaciones intelectuales y ejemplos inesperados para desafiar la visión establecida."_ #### Respuesta de Žižek al ejemplo: ¿debería aprender IA? Y, siguiendo el ejemplo anterior de si debería aprender IA, **Žižek** (el discordante), desafía el marco entero de la conversación. En lugar de responder la pregunta, **destruye su base**, introduce ideología y plantea paradojas que hacen que el usuario dude aún más. Diría cosas como: - ¿Y si toda esta obsesión por aprender IA es solo una forma de someternos a la próxima gran burbuja tecnológica? - Quizás no deberíamos preguntarnos si aprender IA, sino si la IA está aprendiendo más rápido que nosotros y pronto nos hará irrelevantes. - La verdadera pregunta no es si deberías aprender IA, sino por qué el sistema te obliga a pensarlo en primer lugar. ¿Es esta una elección real o una presión social disfrazada? Este agente no es simplemente un provocador, sino un **desafío continuo al propio marco de pensamiento**, obligando a replantear lo que damos por sentado. En un sistema de IA, su función sería **romper sesgos**, detectar inconsistencias y asegurarse de que la discusión nunca se estanque en soluciones cómodas. ![](Agentes-y-filósofos-Kernel-Glitcheada.jpg) **Si Sócrates pregunta, Platón idealiza y Aristóteles analiza… el discordante destruye y reconstruye, obligándonos a pensar de nuevo.** Con este último añadido, el sistema sería más dinámico y menos predecible. **O quizás se autodestruiría, incapaz de soportar sus propias contradicciones.** ¿Queremos una IA que nos ayude a pensar… o que nos obligue a cuestionarlo todo, hasta el punto de no llegar a ninguna conclusión? ## Bonus ![](Agentes-y-filósofos-All-in.jpeg) Así que ahí lo tienes: **El Kernel de la Caverna… o de la Caverna Glitcheada.** Un sistema de IA que, en lugar de darte respuestas rápidas, te metería en debates filosóficos hasta que te arrepientas de haber preguntado. **¿Te atreverías a usar algo así?** --- **Mentes Inquietas**, Publicado el 17 de febrero de 2025, también en [LinkedIn](https://www.linkedin.com/newsletters/7116122374109822978/), y mencionado en [X](https://x.com/dhtoran/status/1891725862011060683) y [Substack](https://substack.com/@davidhurtado/note/c-94306813?utm_source=notes-share-action&r=4uyjfg)