# La Cascada de Asimov del criterio organizativo

Hace un año, en marzo de 2025, me planteaba el concepto de Cascada de Asimov aplicado a la inteligencia artificial. Surgió accidentalmente: pregunté a una IA sobre el concepto sin ser específico, y la IA conectó dos ideas que no estaban conectadas antes y generó una definición nueva. El mecanismo es simple: cuando los modelos de lenguaje se entrenan sobre outputs de otros modelos, la calidad se degrada. Como fotocopias de fotocopias. Nadie sabe cuál es el original.
Tenéis los posts originales aquí por si queréis revisitarlos [Cascada de Asimov](7-Cascada-de-Asimov.md) y [Cascada de Asimov y la creatividad generativa accidental](8-Cascada-de-Asimov-2.md)
Seis meses después, en septiembre, extendíamos la idea al vibe coding: programar con IA sin entender el código que genera. La paradoja ahí era clara. El código existe, funciona, pero nadie en la organización comprende realmente qué hace ni por qué funciona. La deuda técnica se convierte en deuda de conocimiento. Aquí está el post y la investigación completa sobre [Vibe coding y la cascada de Asimov: cómo nace la deuda técnica](11-Vibe-coding-y-la-cascada-de-Asimov.md)
Ahora, casi un año después, veo una tercera aplicación que es más inquietante porque afecta a cualquier profesión cognitiva, no solo a la programación.
## El patrón que se repite

El patrón es conocido en la serie que hemos estado publicando. Una organización adopta IA para producir más. Los profesionales que antes ejercitaban cierta capacidad cognitiva la ceden: no necesitan pensar en estructurar un análisis porque la IA lo estructura. No necesitan escribir porque la IA escribe. No necesitan revisar código porque el sistema genera código "correcto".
Esto no es pereza. Es redistribución. Si la IA hace la ejecución, el profesional sube de nivel. Debería dedicarse a verificar, a evaluar, a decidir si lo que genera la IA tiene sentido. El criterio se vuelve más importante.
Pero aquí es donde ocurre algo que los artículos anteriores de la serie apuntaban sin nombrar directamente. Si el profesional no ejercita la capacidad de verificación -si no puede explicar por qué algo es correcto, solo que "la IA dice que funciona"- entonces no tiene criterio. O mejor dicho: tiene menos criterio que antes.
## La retroalimentación

Y en el momento exacto en que pierde criterio, la IA más lo necesita.
Porque la IA está entrenada, en parte, sobre contenido no creado por personas. Sobre artículos generados por IA que revisó alguien sin criterio suficiente. Sobre código revisado por alguien que no lo entendía realmente. Sobre análisis aceptados porque parecían correctos pero que nadie leyó a fondo. Sobre decisiones que funcionaron a corto plazo pero que nadie analizó en profundidad.
Y si esos outputs degradados entran en el corpus de entrenamiento, la IA que los consume aprende de versiones degradadas de la verdad. La calidad baja un paso.
El profesional, que ya no tiene el criterio para detectar degradación, acepta esos outputs. La organización los incorpora como si fueran sólidos. Alguien los usa para entrenar el siguiente modelo. Y el siguiente profesional tampoco detecta el problema, porque su criterio también se redistribuyó hacia arriba mientras su capacidad de verificación desapareció.
Es la Cascada de Asimov que describíamos aquí hace un año: clones que crean clones, ninguno es el original, y todos se creen que son el auténtico. Pero aquí **los clones son profesionales sin criterio** que generan outputs sin verificar, que se convierten en datos de entrenamiento, que generan outputs más degradados, que se convierten en datos, que degradan más.
## Por qué es invisible

Lo peligroso de esta dinámica es que permanece invisible. Los números siguen siendo buenos. El equipo produce más informes, más análisis, más código. Las métricas de productividad suben. Los plazos se cumplen. Los proyectos se entregan.
> Las métricas de productividad suben porque estamos midiendo horas. Las compañías miden el éxito de implantar herramientas de IA en horas ahorradas por los empleados. **La métrica favorece la degradación de la calidad. La métrica crea la Cascadade Asimov**
Es la paradoja que surgió en la tercera nota de esta serie, la del vibe coding: hay desarrolladores que producen más que nunca y que, simultáneamente, entienden menos lo que están construyendo. Eso no es un problema en el sistema de medición tradicional. Es un éxito.
El problema es que la abundancia es una forma muy eficaz de ocultar la degradación. Si tienes cien artículos, algunos serán buenos. Si revisas cuatro, pueden parecer sólidos. Si el volumen es suficientemente alto, el promedio pasa inadvertido. Y la organización sigue creyéndose el original.
## Degradación gradual

No sé cuántas organizaciones están dentro de esta cascada ya. Probablemente algunas sin saberlo. La señal es clara, pero no es de alarma. No es un colapso abrupto. Es degradación gradual de un sistema que desde adentro se parece exactamente al éxito.
¿Debemos usar IA menos o frenar la adopción? Obviamente no, y obviamente esa no es la cuestión. La cuestión bastante incómoda es **¿tiene alguien en esta organización criterio suficiente para evaluar si lo que está siendo generado y aceptado es realmente correcto?** No "correcto en forma", sino correcto en fundamento.
Si la respuesta es "no, pero confiamos en el sistema", entonces la organización está produciendo outputs que nadie puede verificar de verdad, que parecen sólidos pero que son copias de copias, y todos dan por sentado que son el original.
> Pero claro, todo este argumento no es muy sexy para llevarlo al comité de dirección, y además requiere muchas explicaciones. En mucho mejor ir con el cuento de *"estamos ahorrando X horas a la semana por empleado"*.
Y ese es exactamente el punto en el que el sistema empieza a colapsar, aunque desde dentro siga pareciendo que funciona.
**Cascada de Asimov en toda regla**.
---
Os dejo un par de imágenes hechas por ***Vermeer***, mi nuevo agente de creación de imágenes para los posts. El anterior, ***Dalí***, *"se resistía a mantener el personaje"*, según me comenta Máquina... cosas de las IAs estas, que están un poco rebeldes últimamente.


---
Publicado el 31 de marzo de 2026