12 de mayo de 2026
# 78 - Criterio en la era de la IA: cómo mantener la competencia mientras las máquinas aceleran

## El punto de no retorno
No hace mucho tuvimos en esta newsletter una serie sobre el trabajo cognitivo en la era de la IA, y en el quinto artículo hablaba de la Cascada de Asimov. El punto donde perdemos capacidad de verificar lo que la IA genera, esa IA se alimenta de nuestros resultados degradados, produce cosas más degradadas aún, y en algún momento nadie en la organización puede verificar nada. Todo parece funcionar en los paneles de control (la productividad sube, las tareas se cierran, los informes llegan a tiempo), pero la inteligencia real se degrada invisiblemente.
El dilema es genuino, y no tiene vuelta atrás - ni debería tenerla, porque la IA es herramienta demasiado potente para abandonarla. Pero hay un camino que no es ni "usar IA sin pensar" ni "rechazar la IA para mantener la pureza intelectual". Ese camino es **mantener criterio mientras aprendemos a usar IA en todo aquello en lo que nos ayude**. Requiere intencionalidad y no ocurre de forma automática.
---
## Nivel 1: Intentando mantener el criterio

Empecemos donde tiene más impacto: en nosotros. En nuestra cabeza. En las decisiones que tomamos cada día cuando trabajamos con IA.
Los artículos anteriores identificaban cuatro indicios de que estamos perdiendo competencia por usar IA demasiado "*para todo, sin pensar*":
1. **No podemos explicar por qué algo funciona** - Le hacemos una petición, genera un resultado, nos gusta, lo integramos. Pero si alguien nos pregunta "¿por qué funciona esto?", no tenemos respuesta más allá de "la IA lo hizo bien".
2. **No detectamos errores hasta que explotan** - Lo que la IA produce pasa sin revisión real. Cuando algo falla llega como sorpresa, porque todo parecía correcto hasta que alguien lo mira con atención suficiente.
3. **No podemos modificar sin regenerar** - Necesitamos preguntarle a la IA qué cambiar. O volver a pedirle que lo haga todo de nuevo. No tenemos control granular sobre el resultado.
4. **No podemos enseñar lo que hizo** - Si intentamos explicar a alguien más cómo funciona el resultado, necesitamos la instrucción original. Sin ella, no hay nada que transmitir.
Estos cuatro indicadores nos avisan de que estamos usando la IA para producir sin aportar nuestro criterio. Si seguimos unos meses así, iremos perdiendo la capacidad de generar el trabajo por nosotros mismos.
El mecanismo se repite en cualquier puesto: en marketing, cuando aceptamos un calendario editorial sin saber por qué esos temas y no otros para esta audiencia; en ventas, cuando enviamos una propuesta con un descuento que la IA sugirió sin saber si encaja con esa cuenta; en RRHH, cuando descartamos un CV porque la IA lo recomendó y no podemos defender qué peso dio a qué criterio; en finanzas, cuando validamos un análisis de desviaciones cuya lógica no podríamos defender ante el comité; en legal, cuando aceptamos una cláusula porque suena estándar, sin verificar si lo es para esta jurisdicción y este contrato; en atención al cliente, cuando damos por bueno un guion de respuesta sin saber por qué ese tono.
### Cuatro pruebas como hábitos
**La prueba de justificación**: Cuando integremos un resultado de IA crítico, sería interesante escribir 5 frases sobre por qué funciona. No sobre el prompt, sino sobre el resultado. Si no podemos hacerlo en 5 frases, no conocemos ni hemos interiorizado el resultado lo suficiente. Habría que estudiárselo (o mejor, *debatirlo con la IA*) hasta que entendamos. Si la IA nos prepara un análisis de desviación presupuestaria, ¿podemos defender en cinco frases por qué la conclusión es razonable, qué supuestos contiene y qué pasa si uno de esos supuestos se cae?
**La prueba de variación**: Cambiamos una condición sin regenerar todo. Si pedimos a la IA "10 ideas para esto", y luego necesitamos "10 ideas pero sin presupuesto", ¿podemos adelantarnos a qué cambia? Si es que sí, tenemos criterio sobre la lista. Si no, estamos regenerando con la esperanza de que el resultado mejore. La misma prueba en comercial: si pedimos tres ángulos para una campaña B2B y luego los queremos para B2C, ¿somos capaces de anticipar qué se mantiene y qué cae?
**La prueba de límite**: Hay que intentar identificar dónde falla. Si la IA nos da una rutina de ejercicio físico, ¿funciona igual para alguien de 30 años que para uno de 60 con rodilla operada? ¿Para alguien con gimnasio o sin ningún material en casa? Saber hasta dónde llega lo que nos ha dado la IA es lo mismo que entenderlo. Si no podemos identificar dónde falla, no entendemos lo que estamos usando. Trasladado a operaciones: si la IA propone un plan de comunicación interna para una reorganización, ¿funciona igual en una plantilla de 50 personas que en una de 5.000 repartidas en cuatro países? Es evidente que no pero, ¿podemos explicar por qué? Si no podemos explicarlo, no entendemos el resultado. Solo nos parece bueno.
**La prueba de explicación**: Enseñamos lo que la IA generó sin mostrar el prompt. Solo el resultado. ¿Puede alguien más entenderlo bien sin que nosotros expliquemos cada parte? Si no, el resultado es opaco. Puede tener *apariencia de calidad* pero no es claro. Necesita más trabajo. En RRHH: si la IA redactó la justificación de una propuesta salarial, ¿la entiende el responsable que tiene que firmarla sin que le contemos cómo se gestó?
### Dos prácticas que parecen arcaicas pero son necesarias:
- **Mantengamos una práctica donde NO usamos IA**, aunque sea pequeña. Un proyecto, una tarea semanal, una escritura donde deliberadamente no delegamos ni automatizamos. No porque sea más puro, sino porque es el único lugar donde nuestra competencia real se ejercita y se mantiene en forma. Es simple ejercicio físico. Es parte de nuestro gimnasio mental.
- **Auditemos nuestras propias decisiones**. Una vez a la semana, revisamos qué aceptamos de la IA sin cuestionamiento suficiente. Qué cambiaría si lo supiéramos con más profundidad. Mantenemos un registro no para culpabilizarnos, sino para ver patrones.
El criterio funciona como cualquier capacidad cognitiva: sin práctica regular, se erosiona sin que lo notemos.
¿Y si lo intentamos y de todas formas perdemos criterio? Entonces tenemos trazabilidad: sabemos en qué punto empezó a fallar y podemos frenar antes de que se vuelva invisible. Es la diferencia entre una degradación lenta e imposible de detectar, y una que podemos corregir a tiempo.
---
## Nivel 2: Las dinámicas que preservan el pensamiento en equipo

Ahora, cuando trabajamos con otros.
Una de las trampas de la IA es que **acelera tanto que normaliza la aceptación**. Alguien genera un análisis con IA, otro lo integra en su informe, un tercero lo pasa al cliente o al comité. En cada paso, debería haber verificación real e intensiva. En cambio, como el resultado es aparentemente muy bueno, hay confianza acelerada. Hasta que aparece un problema que no se vio venir.
Pasa igual en cualquier cadena: un copy generado para una campaña, una cláusula incorporada a un contrato, un correo de seguimiento para una cuenta importante, una respuesta plantilla que llega al cliente. Cada eslabón da por bueno lo del anterior. Y nos estamos acostumrando a no verificar de verdad.
Algunas ideas para cambiar eso:
**Revisión en pareja**: Esto es como el *pair programming*, pero para revisiones. Dos personas examinan juntas lo que la IA generó. Una explica qué hace el resultado y por qué funciona así; la otra tiene un único trabajo: buscar lo que está mal, lo que es no está claro, lo que podría fallar o suena a cuñado culto. Funciona igual con un análisis financiero, con una propuesta comercial, con una política interna, con un contrato o con un trozo de código. La idea es hacerse en voz alta las preguntas que normalmente no nos hacemos: ¿por qué esto de esta forma y no de la otra? ¿Qué pasa si cambia una condición? Sí, toma más tiempo que dar un visto bueno rápido y pasar al siguiente. Pero es la única práctica que evita el problema de fondo: construir cosas que funcionan pero que nadie del equipo entiende realmente.
**Rotación de responsabilidades**: No dejemos que siempre la misma persona sea "la que verifica" o "la que confía más en la IA". Alternemos roles. Algunos días somos quienes generamos, otros días somos quienes cuestionamos. Esto previene dos cosas: que alguien se convierta en cuello de botella de criterio, y que otros se vuelvan pasivos.
**Sesiones de cuestionamiento**: Una vez a la semana, reunirse como equipo y hacer de "escépticos de la IA". Tomar algo que la IA haya generado recientemente - un informe, un análisis, una propuesta, un plan de comunicación, una pieza de código - algo que esté bien, y pasar 30 minutos cuestionándolo. ¿Por qué así? ¿Qué alternativas existían? ¿Cuáles serían los riesgos? El objetivo es ver cuánto estamos viendo de verdad.
**Documentar el razonamiento, no solo el resultado**: El archivo final tiene el documento, el contrato, el análisis, el código. Funciona o no funciona. Pero ¿por qué esa estructura? ¿Qué concesiones se tomaron? ¿Qué alternativas se descartaron y por qué? Cuando todo es generado por IA, la única forma de preservar el razonamiento es documentarlo explícitamente. Suena a carga administrativa, pero es resistencia contra la degradación a largo plazo. Además, la IA puede documentar lo que hace. Solo son un par de prompts más.
Hace falta diseñar las dinámicas con intención. Parece más carga de trabajo no productivo, pero lo que estamos haciendo es asegurar la calidad, a corto y a largo plazo. En un futuro próximo agradeceremos este esfuerzo.
---
## Nivel 3: La gobernanza organizativa del criterio

Hay un tercer nivel - el organizativo - que requeriría su propio artículo por cada punto. Lo que sigue son cuatro líneas de trabajo que vale la pena nombrar para completar el mapa, con la intención de desarrollarlas en entregas posteriores.
Las métricas que medimos determinan lo que perseguimos. Si medimos "horas ahorradas" y "velocidad de entrega", la IA aparece como un éxito de productividad. Pero si el criterio se degrada, las métricas no lo capturan hasta que es demasiado tarde. Simplemente baja la calidad y un buen día nos daremos cuenta de que estamos produciendo basura muy bonita a toda velocidad. Aquí hay cuatro áreas que merecen cierta atención:
**Métricas de razonamiento**: No solo velocidad o volumen. Auditorías trimestrales donde se revisa si los resultados que aceptamos hace tres meses siguen siendo correctos. Si descubrimos que tomamos decisiones entonces que hoy no tomaríamos, eso es dato. Una señal de degradación que las métricas actuales no capturan.
**Arquitecturas de control diferenciado**: En tareas de bajo riesgo, la IA puede funcionar de forma autónoma. En donde hay verdadera criticidad -decisiones de arquitectura técnica, contratos relevantes, análisis estratégicos, decisiones sobre personas, comunicación a clientes clave- la verificación humana debería ser obligatoria y exhaustiva, no opcional. Definir esa frontera explícitamente es algo que pocas organizaciones han hecho todavía.
**Trazabilidad de modelos**: Poder auditar qué resultados genera qué modelo, y cuándo. Si usamos IA para generar información que luego usamos como entrada para más peticiones, y se nos escapan errores pequeños, estamos construyendo nuestra propia Cascada de Asimov (os miro a vosotros, los que usáis *deep research* sin leer los resultados). Saber cuándo empezó, qué fue lo primero que se contaminó, requiere infraestructura que hoy casi nadie tiene.
**Incentivos alineados con el criterio**: Si pagamos bonos por "más entregables más rápido", obtendremos eso. Si premiamos la detección de errores antes de que lleguen al cliente o al comité, cambiamos qué comportamiento prospera en la organización. Parece obvio; pocas empresas lo hacen.
Cada uno de estos puntos da para mucho más. De momento, son el esqueleto.
### Cómo empezar
Si nuestra organización no tiene estructura para esto, empecemos pequeño. Designemos a alguien con criterio sólido en su área -un sénior técnico, un responsable comercial, un controller, un legal interno, un experto en operaciones- que, de vez en cuando, dedique tiempo sin prisa para revisar si lo que se generó con IA hace tiempo sigue siendo correcto. Si encuentra problemas, eso es señal. Una sola persona, una sola métrica. Escalamos desde ahí. No requiere cambiar toda la gobernanza: requiere un punto de control deliberado que genere datos sobre degradación.
---
## Qué significa ser competente ahora

Ya no necesitamos producir más -más informes, más análisis, más código, más contenido, más propuestas. Necesitamos juzgar mejor lo que produce la máquina.
Pensémoslo así: hace 20 años, un buen abogado era quien conocía a fondo el código civil. Podía argumentar, interpretar, predecir. Hoy, cualquiera puede consultar el código en segundos. El abogado que vale es quien interpreta qué significa para nuestro caso específico, quien navega la ambigüedad, quien sabe cuándo confiar en la interpretación literal y cuándo ir más allá.
Con IA pasa lo mismo, pero acelerado. La habilidad de producir -un informe, un análisis, un email, un copy, una cláusula contractual, una pieza de código- se ha vuelto genérica. La habilidad de juzgar si ese resultado se sostiene -si la propuesta encaja con el cliente, si la cláusula resiste un litigio, si el análisis convence al comité, si la campaña se va a entender, si el código es seguro y mantenible- eso es lo que vale hoy.
Pero aquí está lo que resulta contra-intuitivo: requiere **más** esfuerzo mental, no menos. Requiere ejercitar lo que la máquina puede hacer por nosotros, porque puede hacerlo. Requiere vivir en cierta incomodidad permanente: verificar sin acelerar, cuestionar aunque requiera no avanzar, mantener comprensión mientras todo empuja hacia la delegación.
La mayoría no lo hará porque es mucho esfuerzo. Pero los que lo hagan van a diferenciarse, no por tener trabajos mejores o más seguros, sino por ser de las pocas personas que entienden realmente lo que se está construyendo, no solo que funciona.
Quizá ser más competente ahora es, en el fondo, producir menos, pero mejor.
---
## Dos trayectorias divergentes

Sin pretender adivinar el futuro con precisión, la lógica de lo que llevamos viendo apunta a que, en poco tiempo años, habrá dos tipos de organizaciones muy distintas.
**La organización que se degrada**: Priorizó velocidad sobre verificación. La IA generaba, se integraba, se entregaba. Los procesos de revisión se aceleraron hasta convertirse en formalidades. Las señales de degradación -cambios que nadie comprendía del todo, errores sutiles que aparecían después- se vieron como molestias a eliminar, no como advertencias. Todo parecía un éxito hasta que no. Errores pequeños que nadie vio venir fueron creciendo hasta convertirse en críticos (de nuevo, Cascada de Asimov). Una auditoría que descubrió decisiones injustificables. Un producto, un proceso o un análisis que funcionaba pero que ya nadie podía entender ni defender.
**La organización que evoluciona**: Mantuvo criterio deliberadamente. Sí, usó IA para todo, pero con control. Los resultados se verificaron con la profundidad que merecían. El razonamiento se documentó. El equipo siguió cuestionando. Las métricas midieron inteligencia, no solo velocidad (no solo medían *horas ahorradas a la semana* 😉) Tardaron más en lo crítico, pero cuando algo falló, tenían trazabilidad, entendimiento y margen para corregir.
En poco tiempo, estas dos organizaciones no son comparables. Lo que las separa no fue la tecnología que eligieron -ambas usaron IA intensivamente-, sino cómo decidieron relacionarse con lo que esa tecnología producía.
---
## La paradoja de mantener criterio

Todo lo anterior levanta una objeción razonable: si mantener criterio nos cuesta diez horas de trabajo semanal -auditorías, revisiones en pareja, sesiones de cuestionamiento, documentación extra-, y nuestra competencia usa IA sin ese esfuerzo añadido, competimos en una cancha inclinada. Ellos producen más, más rápido, a menor costo.
¿Cómo ganamos si gastamos recursos que otros no gastan?
La respuesta directa: a corto plazo, no ganamos. Las primeras organizaciones que hacen esto sufren. Pierden velocidad. Los paneles ven lentitud, no productividad. Pero a medio plazo, la brecha se vuelve obvia: unos entienden lo que construyeron, otros viven con deuda invisible.
Apliquemos mentalidad de ingeniero aquí.
No hay garantía, y sería falso presentar esto como una fórmula. Es una apuesta basada en experiencia: ¿preferiríamos perder velocidad a costa de comprender a medio plazo, o ganar velocidad sin saber muy bien por qué a corto? Decantarse por una u otra dice algo sobre qué valoramos.
---
## La buena noticia

La serie anterior ya fue advertencia, y algunos me dicen que soy negativo, que hablo demasiado de los riesgos de la IA y que debería centrarme más en los beneficios. Y vimos el riesgo real de la Cascada de Asimov.
Y sin embargo, hay una conclusión que no puede perderse: **es evitable**.
No requiere rechazar la IA, sino usarla con intencionalidad. Usarla para todo, pero no a lo loco. Requiere diseño deliberado y mantener activas las capacidades cognitivas que la máquina puede erosionar si la dejamos operar sin supervisión real. Pero, con eso, es completamente evitable.
El criterio no es un recurso fijo: se cultiva con práctica, o se muere por abandono, y los próximos años van a diferenciar mucho a quiénes eligieron qué.
Hace unos años, el reto era cómo mantener el trabajo que teníamos. Ahora el reto se ha movido: cómo mantenemos la inteligencia mientras las máquinas aceleran. Y ese sí tiene respuesta. Las prácticas están aquí, a nivel personal, a nivel de equipo, a nivel organizacional.
---
## Lo que viene
La serie sobre trabajo cognitivo en la era de la IA necesita un segundo acto. Vimos el riesgo, y ahora hemos visto cómo preservar criterio. Pero ¿qué pasa con las nuevas profesiones que emergen? ¿Qué rol tienen los que nunca escribieron código, ni analizaron datos como especialistas, ni produjeron contenido como editores? ¿Cómo se redistribuyen los trabajos cuando la IA no reemplaza roles sino que los transforma?
Ahí arranca el próximo capítulo.
---
Publicado el 12 de mayo de 2026, [LinkedIn](https://www.linkedin.com/pulse/criterio-en-la-era-de-ia-c%25C3%25B3mo-mantener-competencia-hurtado-tor%25C3%25A1n-tmzie), [X](https://x.com/dhtoran/status/2054070114299854865?s=20), [Substack](https://open.substack.com/pub/davidhurtado/p/criterio-en-la-era-de-la-ia-como?r=4uyjfg&utm_campaign=post&utm_medium=web&showWelcomeOnShare=true)