Publicado el 17 de enero de 2026 # AI Slop, AI Workslop y la falsa promesa de la productividad ![[Slop-y-Workslop.webp]] > [!tip] Spoiler inicial: > La inteligencia artificial va a **multiplicar la productividad real de muy pocas personas** y va a **encerrar a la mayoría en una ilusión de productividad** basada en ruido, volumen y apariencia de trabajo. > > El daño no es solo individual, personal. También es estructural, empresarial. > No es un problema técnico. Es un problema cognitivo y corporativo. Productividad con IA. 2025 ha sido el año del entendimiento. 2026 empieza a parecer el año del asentamiento. Y aquí hay que parar un momento y hablar de un concepto fastidioso: ***slop*** ## Qué significa “slop” _Slop_ es una palabra poco elegante para una idea muy concreta: **contenido producido en masa, de baja calidad, sin intención real de aportar valor**. No es nuevo. Lo nuevo es la **escala**, la **velocidad**, la **plausibilidad** y la **legitimidad aparente** que le da la inteligencia artificial. Hoy, con la IA, convivimos con dos variantes muy claras: - **AI Slop**: basura generada por IA. Vídeo de gatos peleándose y tal. - **AI Workslop**: basura generada por IA en las empresas, en forma de documentos y presentaciones de trabajo. ## AI Slop: cuando la IA contamina el ecosistema ![[AI-Slop.webp]] AI Slop es contenido automatizado, superficial, repetitivo o directamente incorrecto, producido sin criterio humano ni responsabilidad. No es que la IA “sea mala”. Es que se la usa a lo loco, sin supervisión y sin propósito. Vídeos de gatos trabajadores peleándose. Los 5 primeros me hicieron gracia. Los 25 siguentes en menos de una semana ya me empezaron a preocupar. Lo vemos todos los días: artículos informativos que no dicen nada, imágenes generadas sin sentido, libros publicados en masa, tutoriales que parecen correctos y no lo son. El efecto es que Internet se llena de ruido, lo cual ya es muy grave. Pero encima supone la degradación del conocimiento (gravísimo) y un problema añadido: **los modelos del futuro entrenándose con basura del presente**. La famosa Cascada de Asimov de la que ya hemos hablado mucho [aquí](7-Cascada-de-Asimov.md) y [aquí](8-Cascada-de-Asimov-2.md) y también [aquí](40-vibe-coding-y-la-cascada-de-Asimov.md) El slop genera más slop. Hasta aquí, el problema parece externo. Internet lleno de ruido. Molesto, pero gestionable. En realidad **yo creo que el problema en Internet es enorme**, pero hoy venimos a hablar de *otro* problema. > El problema de cuando el AI slop entra en la empresa. ## AI Workslop: cuando el trabajo parece trabajo, pero no lo es ![[AI-Workslop.webp]] AI Workslop es contenido laboral generado por IA que **parece productividad**, pero **no crea valor**. Documentos, informes, resúmenes, presentaciones, análisis, emails. Todo suena profesional. Todo está bien redactado. Todo llega rápido. Si generas mucho contenido con IA, te sientes seguro, superior. Si no, algún gurú de YouTube te vende la seguridad de tu futuro profesional con un curso de ChatGPT. Y sin embargo, mucho del contenido que se genera en la empresa no aporta claridad, no ayuda a decidir, no resuelve problemas, no cambia nada relevante. Pensadlo: contenido generado con IA, que nadie ha leído en profundidad, y que se suma al contenido ya existente en la empresa. Es slop con traje. Confundimos **actividad** con **impacto**. La IA facilita producir. Facilita la producción en masa. Lo cual puede ser nefasto. Y encima facilita que pensemos menos. ## Por qué el AI Workslop es tan atractivo El AI Workslop no aparece por casualidad. Aparece porque encaja perfectamente con incentivos ya existentes: - culturas obsesionadas con “entregar algo”, - organizaciones que miden output, no calidad, - managers que ven movimiento y lo confunden con avance, - profesionales agotados que agradecen cualquier atajo. La IA amplifica todo eso. Produce más rápido lo que ya hacíamos mal. Y además introduce un efecto psicológico peligroso: tenemos la sensación de estar siendo más productivos sin estar pensando mejor. ## El punto clave: delegar trabajo cognitivo tiene un coste Aquí está el segundo problema serio que habría que mirar de frente en las empresas: > Cada vez que delegas trabajo cognitivo en la IA estás dejando de hacerlo tú. Si delegamos demasiado análisis, síntesis, estructuración, redacción, estamos **dejando de hacerlo nosotros**. Y **lo que no se usa, se atrofia**. Las capacidades cognitivas que no se ejercitan, se vuelven flojas. > [!tip] La paradoja de la IA > LA IA puede liberarte tiempo para pensar mejor… o puede atrofiar completamente tu capacidad para pensar. Ambas cosas son ciertas. Depende de **qué delegas y qué no**. > [!warning] > El warning es que si usas la IA solo para “ser más productivo”, no acabas haciendo más: acabas pensando menos. > > No elevas tu trabajo, lo diluyes. Empiezas a **generar contenido peor que antes**, solo que **en mucha más cantidad** y **con aspecto de trabajo bien hecho**. > > Y ese es el problema: el aspecto. > > Porque cuando delegas de forma sistemática el esfuerzo cognitivo, el deterioro es rápido. Primero dejas de saber escribir sin ayuda. Luego pierdes la capacidad de ordenar una idea. Y antes de darte cuenta, también **has perdido la capacidad de tomar una decisión sin que otra cosa decida por ti**. > ## El segundo daño del AI Workslop: la degradación estructural de la empresa Hasta ahora he hablado del daño individual: personas que delegan el pensamiento, dejan de ejercitarlo y pierden criterio. Pero hay un segundo daño, mucho más grave, porque no afecta a una persona. Afecta a toda la organización. Cuando el AI Workslop entra en la empresa, no se queda en “malos documentos”. Se convierte en **materia prima del conocimiento interno**. Documentos generados con IA, con errores sutiles, supuestos incorrectos o análisis superficiales: - se guardan, - se reutilizan, - se resumen, - se combinan con otros, - se citan como referencia, - se convierten en base para nuevas decisiones. Esto es una **Cascada de Asimov interna**. Slop que genera más slop, pero ahora dentro de los sistemas de la empresa: wikis internas, repositorios, CRMs, documentación técnica, informes estratégicos, presentaciones ejecutivas, código, políticas. El problema no es solo que haya errores. El problema es que **el error adquiere legitimidad** y queda enterrado entre toneladas de texto aparentemente profesional. Porque está bien escrito. Porque parece profesional. Porque “lo ha generado la IA”. Porque nadie tiene tiempo de revisarlo todo. Y así, poco a poco, la empresa empieza a operar sobre conocimiento degradado. No es ruido. Es **erosión estructural**. Por eso el problema del AI Workslop es doble: - **Daño cognitivo individual**: personas que dejan de pensar, analizar y decidir por sí mismas. - **Daño sistémico corporativo**: organizaciones que empiezan a tomar decisiones sobre información degradada. > El primero te empobrece como profesional. El segundo puede arruinar una empresa entera. ## El caso del desarrollo de software: AI Workslop técnico En programación esto se ve con una claridad brutal. Los estudios coinciden: cuando se usa IA intensamente se programa más rápido pero se cometen más errores, la calidad media baja, los perfiles junior son los más perjudicados. La IA no mejora la capacidad del programador. **Mejora su capacidad de producir código**. Y producir código no es lo mismo que construir buen software. De hecho, podría ser lo contrario. Aparece así el AI Workslop técnico: funciones que parecen correctas y no lo son, código que compila pero no cumple requisitos, soluciones frágiles que introducen deuda técnica, comentarios que no explican nada sino que simplemente describen lo evidente. Más commits. Más líneas. Más actividad. Menos calidad estructural. El daño no es inmediato, es acumulativo. Es la tradicional deuda técnica del diseño y desarrollo de software, pero amplificada, acelerada, y con una capa de plausibilidad excepcional. Todos hemos visto algún texto legal hecho con IA aparentemente perfecto y profesional, pero que si profundizas, está mal o le falta fundamente, pero realmente *parece* bueno. Llévate eso al desarrollo de software. Y aquí vuelve a aparecer el daño sistémico: ese código defectuoso no se queda aislado. Se integra en sistemas, se reutiliza, se copia, se toma como ejemplo. La deuda técnica deja de ser un accidente puntual y pasa a ser un proceso continuo. ### El error de fondo: output no es valor Aquí se cruzan todos los hilos. La IA es extraordinaria produciendo output. Texto, código, imágenes, presentaciones. Pero **output no es valor**. El valor aparece cuando hay criterio, hay contexto, hay experiencia, hay responsabilidad. Sin eso, la IA solo acelera la mediocridad. Y lo hace con apariencia profesional. ## La división que se nos viene encima ![](Slop-y-workslop-2.webp) No va a haber una división entre quienes usan IA y quienes no. Ese debate se queda corto: todo el mundo usará IA. La división va a ser otra, y vendrá rápido. Me imagino lo que va a pasar a lo largo de 2026: - Un grupo pequeño de gente usa IA para **pensar mejor**, no para evitar pensar. - Una inmensa mayoría usa la IA para **producir más**, no para crear valor. Los primeros delegan ejecución, mantienen el control cognitivo, usan la IA como amplificador de criterio. Aprenden a pensar mejor. Se hacen más listos gracias a la IA. Encima, producen mejor. Los segundos delegan el pensamiento, aceptan el output, se sienten más productivos, pero su contenido es cantidad, no calidad. Y encima están perdiendo la capacidad de distinguirlo. Ambos dirán que “usan IA”. Pero estarán jugando juegos completamente distintos. Unos están garantizando su futuro profesional. Los otros no solo están destruyéndolo (destruyendo su cerebro), sino que encima están contribuyendo a un problema serio en las empresas: la generación de contenido basura, la degradación de la calidad del valor que se supone que la empresa debe producir. Este tema es demasiado serio para despacharlo aquí. En el próximo número entraremos a fondo en el AI Workslop dentro de las empresas: - cómo se propaga, cómo se normaliza, cómo contamina decisiones - y por qué es uno de los mayores riesgos silenciosos de la adopción de IA. Y no solo eso: también hablaremos de **cómo mitigarlo**. Porque este problema no se soluciona prohibiendo la IA, sino aprendiendo a usarla con criterio, límites y responsabilidad. Para lo que creéis que exagero: todos hemos visto noticias de abogados o consultoras multados por presentar escritos supuestamente profesionales que tenían errores tremendos por haber sido generados con IA y no verificados. No son casos sueltos. Son casos *visibles*. Por cada uno de esos visibles habrá 100 que nadie se ha dado cuenta. Todavía. ## La preocupación para 2026 La preocupación para 2026 no debería ser si la IA logra mejorar la productividad o la empeora. Porque la IA puede **hacer ambas cosas a la vez**. Las cuestiones son: > [!question] > ¿Estás usando la IA para liberar pensamiento… o para sustituirlo? ¿para producir más o para producir mejor? Porque de esa decisión depende todo lo demás. Yo soy un tremendo adalid de ceder pensamiento a la IA. Pero solo una pequeña parte del pensamiento. El que no aporta valor. El que haría mi becario si tuviera uno. En 2026 no se va a notar quién usa IA. Se va a notar quién **sigue sabiendo pensar sin ella**.