10 de julio de 2025
# Lo que (de verdad) nos queda a los humanos en la era de la IA

El [post de ayer](9-Lo-que-se-mide-se-automatiza.md) tenía una frase épica, sí. Pero también me llevó a una pregunta incómoda:
> **Si todo lo que se mide se automatiza, ¿qué nos queda a los humanos?**
Spoiler: no todo el mundo va a estar en ese ‘lo que nos queda’.”
## Knightian uncertainty: el tipo de decisiones que no se pueden delegar
*Incertidumbre knightiana*, interesante concepto que aprendí ayer.
### 1. Riesgo vs. Incertidumbre
El economista Frank Knight lo definió así **riesgo** e **incertidumbre** en en 1921:
- **Riesgo**: situaciones en las que _sí conocemos_ las probabilidades de los posibles resultados.
→ Ejemplo: lanzar un dado, invertir en bolsa con datos históricos.
- **Incertidumbre (Knightiana)**: situaciones en las que _no podemos asignar probabilidades fiables_, porque los eventos son únicos, complejos o simplemente desconocidos.
→ Ejemplo: lanzar un producto radicalmente nuevo, una pandemia global, o cómo evolucionará el mercado de trabajo con la IA generativa.
### 2. ¿Por qué importa hoy?
Porque la mayor parte de las herramientas de IA (y la toma de decisiones automatizada en general) se basan en **riesgo**, no en incertidumbre.
La IA necesita:
- Datos históricos.
- Patrones reconocibles.
- Probabilidades estimables.
Pero no puede navegar bien la **incertidumbre radical**, donde:
- No hay precedentes.
- No hay datos útiles o históricos.
- Las consecuencias son desconocidas o incuantificables.
### 3. ¿Qué tareas caen en el terreno de la incertidumbre knightiana?
- Decisiones estratégicas sin marco previo.
- Interpretación política o social de eventos sin precedentes.
- Innovación disruptiva en mercados no existentes.
- Liderazgo en crisis inesperadas.
- Gestión de confianza o reputación en situaciones nuevas.
### 4. ¿Y cuál es el papel humano?
**Aquí es donde los humanos siguen siendo insustituibles**: La experiencia, el juicio, la intuición, el coraje para decidir sin certeza... Todo eso opera en escenarios _knightianos_.
Donde no hay datos, hace falta criterio. Y eso, por ahora, no se entrena ni se estudia. Se aprende con la experiencia.
## La afirmación rotunda que no aguanta el análisis

De lo anterior se extrae la siguiente afirmación, perfecta para titular de influencer o thmbnail de youtuber
> [!tip] _“Lo que nos queda a los humanos es lidiar con la incertidumbre”_.
La frase es sugerente, pero también muy engañosa. Como si la IA se quedara con todo lo concreto, y a nosotros nos relegaran a lo abstracto y difícil.
No va por ahí. Porque **no todo el mundo está preparado para trabajar en ese terreno.**
Lidiar con incertidumbre no es lo mismo que improvisar. No es tener buenas ideas ni ser creativo.
### ¿Qué es eso de *lidiar con la incertidumbre*?
1. **Lidiar con incertidumbre no es un “resto”, es el trabajo más exigente.**
Tomar decisiones cuando no sabes qué va a pasar, cuando no hay precedentes, ni datos buenos, ni margen para probar y equivocarte… eso no es algo que le dejas a un becario o que hace cualquier persona.
Eso lo hace quien tiene experiencia, contexto y piel gruesa. Y si te equivocas, te lo comes tú.
2. **No es un superpoder humano, es una limitación asumida.**
No lidiamos con incertidumbre porque seamos especiales. Lo hacemos porque **no hay alternativa**. Porque hay decisiones que nadie puede delegar en una máquina, no por principios éticos, sino porque la máquina no sabría qué hacer.
3. **No todo el mundo puede hacerlo.**
Esta idea de “lo que queda para los humanos es la incertidumbre” parece implicar que _todos_ los humanos podrán seguir trabajando ahí.
No. Solo algunos.
**Lidiar con incertidumbre es un privilegio reservado para los que demuestran que saben moverse en ese terreno**. Los demás… serán sustituidos por la IA o supervisarán sistemas.
No parece que el futuro humano sea “lidiar con la incertidumbre” como si fuera un rincón cómodo. Creo que la división real será esta:
- **La IA hará lo que se puede automatizar.**
- **Y los humanos que quieran seguir siendo valiosos tendrán que demostrar que saben moverse en lo que no se puede automatizar.**
No es algo que pueda hacer cualquiera. Y por tanto, **no es “lo que nos queda a todos los humanos”.** Es lo que **_algunos_** humanos podrán hacer —porque se han preparado para ello. Algunos sabrán moverse ahí, y el resto no. Y el sistema no reparte puestos por empatía. De hecho, el sistema no tiene empatía.
## Unos pocos vs. el resto
Entonces, podríamos decir que *"lidiar con la incertidumbre"* queda para la gente con más experiencia, unos pocos. ¿Y le resto...?
Esto tiene más pinta de verdad incómoda que de mentira reconfortante. Diría que:
### Aquellos con experiencia *lidiarán con la incertidumbre*
No basta con ser “creativo” o “adaptable”. Requiere experiencia y responsabilidad y grandes dosis de voluntad. En contextos de alta incertidumbre, lo que marca la diferencia es:
- haber visto cosas parecidas,
- entender los riesgos ocultos,
- saber cuándo no hacer nada,
- y asumir consecuencias sin certezas.
Eso no lo enseña un curso de 10 horas, ni en un *onboarding* rápido. Y tampoco lo aprendes en tus primeros años de trabajo.
**Por eso este tipo de tareas caerán en manos de perfiles con experiencia real, criterio desarrollado y capacidad de actuar sin manual.**
### ¿Y el resto? ¿Qué hará la mayoría en un mundo donde todo lo demás se automatiza?
#### Opción 1: trabajar junto a la IA.
Esto es lo que muchos llaman “IA aumentada”. Personas que saben usar modelos como asistentes para hacer su trabajo más rápido o mejor:
- redactores que revisan con IA,
- diseñadores que iteran más deprisa,
- analistas que exploran hipótesis con ayuda de modelos.
Pero cuidado: **esto no los hace irremplazables.**
Los hace “útiles mientras tanto”. Porque esa forma de colaboración solo es viable mientras la tarea no esté completamente absorbida por la IA.
#### Opción 2: reconversión forzosa hacia funciones blandas, mal pagadas o hiperpersonalizadas.
- Atención humana donde se requiere presencia física o emocional.
- Roles de supervisión o acompañamiento.
- Micronichos donde la empatía o la confianza son lo único que no se puede simular del todo.
#### Opción 3: exclusión gradual.
Y esta es la opción incómoda. Una parte de la población se irá quedando sin un lugar claro en el sistema productivo.
No porque no valgan. Sino porque **el sistema ya no necesita su forma de aportar valor.** Y eso plantea problemas sociales, políticos y existenciales serios.
# Dos reflexiones rápidas
Retomando la frase épica de ayer de *"la cultura de lo que no se puede medir no existe denota una falta de visión de proporciones bíblicas"*: si vives en esa cultura y te lo has creído, eres un *middle manager*, y tu trabajo consiste en comprobar que otros han hecho el suyo… no necesitas una IA: ya eres una (pero con sueldo y vacaciones). Básicamente estás haciendo 2 cosas:
- #### **Estás allanando el camino para que tu trabajo sea automatizable**. En la siguiente oleada ya no aportas valor.
En serio, si tu trabajo se mueve entre Excels y Power BIs, es muy probable que estés en un limbo donde ni estás tomando decisiones importantes para la empresa ni estás ejecutando. Estás haciendo algo que *todavía* no se ha automatizado, pero el que paga lo automatizará en cuanto pueda. Échale un vistazo a este vídeo, el primer *BS job*: https://youtu.be/izzpyEHMc7I

- #### **Estás dejando de invertir tiempo en ganar experiencia para aportar valor en el futuro.**
No parece haber tarea que la IA no pueda hacer en un futuro más o menos cercano. Lo que haces ahora, ¿tiene pinta de que aportará algo en el futuro, con ciertos cambios?
Hago el mapeo mental a cuando se inventó el automóvil y el caballo dejó de ser la herramienta de transporte, y me imagino tres tipos de trabajos: 1) los que vivían de criar caballos, 2) los jinetes y conductores de carromatos y 3) los que sabían de logística.
Los primeros, desaparecieron casi por completo.
Los segundos, sobrevivieron si aprendieron a conducir. Cambiaron caballo por camión y siguieron en la base de la pirámide.
Los terceros mantuvieron sus trabajos, y además debieron pasarlo bien con la transición.
Mi sensación es que la IA se quedará con todo lo que pueda aprenderse, medirse o explicarse. Lo hará mejor, más rápido y sin cansarse. Lo único que quedará fuera será lo incierto, lo impredecible, lo que no tiene manual. Pero decidir ahí no es un privilegio general, es una responsabilidad reservada a unos pocos. No porque el resto no quiera, sino porque no se ha preparado. El futuro no premiará al que se adapte, sino al que sepa moverse cuando no hay datos. Y para eso no hay atajos. Ni prompts.
---
Publicado el 10 de julio de 2025, [Substack](https://open.substack.com/pub/davidhurtado/p/lo-que-de-verdad-nos-queda-a-los?r=4uyjfg&utm_campaign=post&utm_medium=web&showWelcomeOnShare=true) y [LinkedIn](https://www.linkedin.com/pulse/lo-que-de-verdad-nos-queda-los-humanos-david-hurtado-tor%C3%A1n-3p6if)