# 18 - ¿la IA razona o es una tomadura de pelo
¿Razona la IA? ¿ Copilot o ChatGPT razonan?
La respuesta no es nada obvia: Sí y no.
A ver si este post me reconcilia con Matias y el resto de data scientists y gente de mente analítica y matemática que se revuelve cada vez que digo por ahí que la IA razona.
Normalmente decimos que la IA razona*. Y le ponemos un gran asterisco porque en realidad no razona, sino que *imita* razonamiento.
Bueno, si es capaz de imitar el razonamiento humano, pues me vale, ¿no?
En realidad, no exactamente.Funciona de manera distinta a un humano y hay que entender la diferencia para poder usarlo bien y no meter la pata.
¿Cómo razona un humano?
Normalmente las personas tenemos procesos de razonamiento que nos llevan a una respuesta. La respuesta es el resultado del razonamiento. Hay una pregunta o una cuestión que resolver, hay un razonamiento, normalmente oculto, y hay una respuesta o solución como consecuencia del razonamiento.

¿Cómo razona la IA?
En el caso de la IA es distinto. Cuando le haces una pregunta a tu asistente favorito, éste directamente escupe la respuesta. No hay razonamiento intermedio. Es como una calculadora sobre-musculada. Pregunta = respuesta. Sin razonamiento. Como un humano que responde por intuición, sin pensárselo (ojo al bonus 2, al final)
Y aquí viene el problema: si *después* le pides un razonamiento al asistente, la IA *creará* un razonamiento que justifique su respuesta previa.

Esto sólo es un problema si no lo sabes o no lo tienes en cuenta. Simplemente hay que usarlo a tu favor.
Solución: razonamiento antes que la respuesta
La solución si quiero que la IA me ayude con un razonamiento es simple: pide el razonamiento antes de la respuesta.
Esto forzará la asistente hacer un razonamiento y la respuesta final será continuación o conclusión de dicho razonamiento.
Esto está más o menos implementado en el GPT-4, y por eso están redicho, y cada vez que le haces una pregunta, por simple que sea, normalmente te da demasiadas explicaciones previas antes de la respuesta. Es muy pesado, pero necesita serlo para que la respuesta sea buena. Necesita "pensar en voz alta"
Lo cual nos lleva a lo siguiente: evita los diálogos de besugos
Si le has hecho una pregunta a tu asistente preferido, te ha dado una respuesta, y no te fías mucho porque no la ha razonado (o por lo que sea) --> **no le pidas explicaciones sobre la respuesta previa**. Es muy probable que te metas en un diálogo de besugos donde la IA tratará de justificar lo que dijo previamente. En este caso simplemente empieza de cero haciendo la pregunta de otra forma o pidiendo el razonamiento previo.
---
Bonus: el lío con todo esto es que la IA se comporta de forma sospechosa e inquietantemente parecida a las personas, pero con diferencias de base importantes que a menudo se pasan por alto. Hay que conocer estas diferencias para poder sacarle partido.
Recordad que la IA maneja muy bien el lenguaje, tiene un buen conocimiento e imita razonamientos, pero no significa que funcione como una persona. La IA no tiene intenciones, ni sentido común, ni sentimientos ni nada parecido. Lo que resulta obvio es una conversación entre humanos no lo es en absoluto en una conversación entre humano de IA.
Y más vale que no se acostumbremos más porque tiene pinta que los próximos años vamos a hablar más con los asistentes que con otras personas.
Bonus 2: esto de llegar a una conclusión basada en sus deseos o emociones o prejuicios en lugar de en la evidencia objetiva, y luego buscar información o argumentos que justifiquen esa conclusión, ignorando o desacreditando la evidencia que podría contradecirla, ocurre mucho entre humanos. Lamentablemente. Es una falacia común llamada "razonamiento motivado" o "racionalización motivada".
El ejemplo típico es el de las películas de policías, donde se aparta de la investigación al policía si está implicado personalmente, porque esa implicación personal hará que tienda a fabricar razonamientos que le lleven al resultado "motivado". Mola.