# AI Slop Is Destroying The Internet **AI Slop**, el problema del contenido basura creado por la IA. Es un problema serio porque la propia IA está empezando a utilizar contenido basura como fuente fiable de información. Diría que esto es una [Cascada de Asimov](7-Cascada-de-Asimov.md) en toda regla. Os dejo dos cosas interesantes: - un vídeo de **Kurzgesagt**, canal de YouTube que deberían poner en las escuelas, que explica muy bien el problema del contenido basura de la IA en Internet, a través de lo que les ha pasado a ellos verificando datos, y - la página entera de fuentes que publican para la creación de este vídeo, donde tenéis muchísimas referencias y explicaciones sobre el fenómeno de AI Slop ## Vídeo ![](https://www.youtube.com/watch?v=_zfN9wnPvU0) ## AI Slop - sources La página completa y traducida con las fuentes del vídeo. ==**Interesantísimo contenido**==. Está traducido con IA, así que quizá quieras ir a la versión original: https://sites.google.com/view/sources-aislop --- **– AI Slop está saturando Internet y las cosas se están volviendo dramáticas con bastante rapidez.** La inteligencia artificial es un término general para muchos tipos diferentes de sistemas computacionales. En este vídeo nos centramos en los llamados "AI Slop": medios de baja calidad (texto, sonido, imágenes y vídeo) producidos en gran medida utilizando una rama de la IA llamada "IA generativa" (o GenAI). A menos que se especifique lo contrario, cuando hablamos de IA aquí estamos hablando de GenAI. La IA generativa crea contenido nuevo y sintético basado en datos de entrenamiento. Esto contrasta con las formas no generativas de IA que generalmente usan un conjunto limitado de entradas para producir una salida preespecificada (por ejemplo, reconocimiento facial, recomendaciones musicales, computadoras jugando al ajedrez). Ha habido algunos intentos de estimar la fracción de contenido generado por IA en varias partes de Internet. Si bien no existen estimaciones confiables para la fracción de contenido de IA de todo Internet, está claro que la cantidad absoluta de contenido generado por IA crece rápidamente cada día. A continuación, hemos vinculado algunos estudios seleccionados. Un estudio reciente (aún no revisado por pares) estima que para las plataformas de redes sociales Medium y Quora, hasta aproximadamente el 40% del contenido nuevo publicado parece ser generado por IA. Para Reddit, la estimación es del 2,5%. ### Sun Z, Zhang Z, Shen X, et al. ¿Ya estamos en el mundo del texto generado por IA? Cuantificación y monitoreo de AIGT en las redes sociales. arXiv (2025) [https://arxiv.org/abs/2412.18148](https://arxiv.org/abs/2412.18148) Cita: " Las plataformas de redes sociales están experimentando una presencia creciente de textos generados por IA (AIGT). Sin embargo, el uso indebido de los AIGT podría tener profundas implicaciones para la opinión pública, como la difusión de información errónea y la manipulación de narrativas. A pesar de su importancia, no está claro qué tan frecuentes son los AIGT en las redes sociales. Para abordar esta brecha, este documento tiene como objetivo cuantificar y monitorear los AIGT en las plataformas de redes sociales en línea. Primero recopilamos un conjunto de datos (SM-D) con alrededor de 2,4 millones de publicaciones de 3 plataformas de redes sociales principales: Medium, Quora y Reddit. Luego, construimos un conjunto de datos diverso (AIGTBench) para entrenar y evaluar detectores AIGT. AIGTBench combina conjuntos de datos populares de código abierto y nuestros conjuntos de datos AIGT generados a partir de textos de redes sociales por 12 LLM, que sirven como punto de referencia para evaluar los detectores convencionales. Con esta configuración, identificamos el detector de mejor rendimiento (OSM-Det). Luego aplicamos OSM-Det a SM-D para rastrear AIGT en plataformas de redes sociales desde enero de 2022 hasta octubre de 2024, utilizando la tasa de atribución de IA (AAR) como métrica. Específicamente, Medium y Quora exhiben aumentos marcados en AAR, pasando de 1.77% a 37.03% y de 2.06% a 38.95%, respectivamente. Por el contrario, Reddit muestra un crecimiento más lento, con un aumento del AAR del 1,31% al 2,45% durante el mismo período. Nuestro análisis adicional indica que los AIGT en las redes sociales difieren de los textos escritos por humanos en varias dimensiones, incluidos los patrones lingüísticos, la distribución de temas, los niveles de participación y la distribución de seguidores de los autores. Prevemos que nuestro análisis y hallazgos sobre los AIGT en las redes sociales pueden arrojar luz sobre futuras investigaciones en este dominio." Un análisis reciente realizado por una empresa de SEO encontró que una gran parte de los sitios web en inglés mostraban signos de uso "sustancial" o "dominante" de IA. ### Law R, Guan X, Soulo T. El 74% de las nuevas páginas web incluyen contenido de IA (estudio de 900k páginas). Blog de Ahrefs. 2025 [https://ahrefs.com/blog/what-percentage-of-new-content-is-ai-generated/](https://ahrefs.com/blog/what-percentage-of-new-content-is-ai-generated/) Cita: " Usamos bot\_or\_not para analizar 900,000 páginas web en inglés que fueron detectadas por nuestro rastreador web en abril de 2025. Analizamos una página por dominio (por lo que probamos contenido de 900,000 dominios diferentes). Cada página se clasificó de acuerdo con el porcentaje de la página que nuestro modelo detectó como generada por IA." ![](https://lh3.googleusercontent.com/sitesv/AICyYdYrGLQPH6FNN4ydWWQ_E8gguHBqeNIJMHO26CTee8_VMc-xgqiBK_SWbOBzAz_ntlkdB-tWhGdPVIJKoTYotcHdy1Jva5tLznKknID-xqWjam1IIZHDd1SaisAgBGFFs6WtVeJ8c7ghKPIz6BjyHbGZT5ouMUjXi_fAByUSvGCFlF6kN-CIhtDJ2OSNGWDsPxLdmIObucbIFKF2kYzbZYJPg_tpvUsFZjQ8ZSw=w1280) Un análisis reciente realizado por investigadores afiliados a Amazon Web Services (una plataforma de computación en la nube) encontró que el 57,1% de todo el texto basado en la web que se tradujo al menos una vez, se tradujo a 3+ idiomas y probablemente sea el resultado de traducciones automáticas de mala calidad. Los hallazgos no han sido revisados por pares. ### Thompson B, Dhaliwal M, Frisch P, et al. Una cantidad impactante de la web está traducida por máquina: información del paralelismo multidireccional. Hallazgos de la Asociación de Lingüística Computacional. 2024 [https://aclanthology.org/2024.findings-acl.103/](https://aclanthology.org/2024.findings-acl.103/) Cita: " Mostramos que el contenido en la web a menudo se traduce a muchos idiomas, y la baja calidad de estas traducciones múltiples indica que probablemente se crearon utilizando traducción automática (TA). El contenido generado por máquinas en paralelo multidireccional no solo domina las traducciones en idiomas de bajos recursos; También constituye una gran fracción del contenido total de la web en esos idiomas. También encontramos evidencia de un sesgo de selección en el tipo de contenido que se traduce a muchos idiomas, consistente con el contenido en inglés de baja calidad que se traduce en masa a muchos idiomas de menor recurso, a través de la traducción automática. Nuestro trabajo plantea serias preocupaciones sobre los modelos de entrenamiento, como los modelos multilingües de lenguaje grande, tanto en datos monolingües como bilingües extraídos de la web. \[...\] De las 6.38B oraciones en nuestras tuplas de traducción 2.19B, 3.63B (57.1%) están en tuplas paralelas multidireccionales 6 (3+ idiomas): ver Tabla 1. \[...\] ![](https://lh3.googleusercontent.com/sitesv/AICyYdbPIi6Vo_VI7koDMzaXmE1NFpHWjvz824KMx652vgdGanSsXAOoVzQYUOzE49PdhIFhVQ7GQtp8GPos03pVWFp7bl3QKCfH8gDwCKp4hDQosNMd6415X_8WYpFGd4_XaVaJLwFUI3ST8SZxABmx5n5Trtuto-Ja8PxyQPk1nB3PUn4Eza1ooUNEgXio1rY8IrzU4nghwjh6MUh_wO83WI1WHv2ZU5ZN0HQv=w1280) – Hoy en día, aproximadamente la mitad del tráfico de Internet son bots, la mayoría de ellos se utilizan con fines destructivos. Los "bots" son aplicaciones de software que realizan tareas en línea automáticamente y, a menudo, están diseñados para imitar el comportamiento humano. El "Informe de bots malos" publicado por una empresa de ciberseguridad es una fuente comúnmente citada para la fracción del tráfico de Internet creado por los bots. Se basa en un gran conjunto de datos de solicitudes de bots bloqueadas en miles de sitios web e industrias diferentes, y muchos medios de comunicación y plataformas lo consideran confiable. Sin embargo, es importante reconocer que el informe es publicado por una empresa privada de ciberseguridad interesada en vender software anti-bot y, por lo tanto, su análisis puede tener limitaciones y/o sesgos. ### Imperva. Informe de bots malos de 2025. Consultado en julio de 2025 [https://www.imperva.com/resources/resource-library/reports/2025-bad-bot-report/](https://www.imperva.com/resources/resource-library/reports/2025-bad-bot-report/) Cita: " Nuestro análisis se basa en datos recopilados de toda la red global de Imperva en 2024, incluido el bloqueo de 13 billones de solicitudes de bots maliciosos en miles de dominios e industrias. Este conjunto de datos proporciona información clave sobre la actividad de los bots para ayudar a las organizaciones a comprender y abordar los crecientes riesgos de los ataques automatizados. El informe de este año se centra en el creciente papel de la Inteligencia Artificial (IA) en los ataques de bots, aumentando significativamente su volumen, accesibilidad y capacidad para evadir la detección. Los bots maliciosos se dirigen cada vez más a las empresas a través de tácticas como el raspado de datos, el secuestro de cuentas y la manipulación del inventario para obtener ganancias financieras. A medida que evoluciona la IA, las organizaciones deben adoptar estrategias de mitigación avanzadas para protegerse contra el fraude, las pérdidas financieras y los riesgos de seguridad." ![](https://lh3.googleusercontent.com/sitesv/AICyYdaavC0YdXl5UYIbw099TcxCipJqbQOCLeA3CpQcBUAh862rmSdeTQORhCLLOtXHoa_hP6iXaltOBa9FY1OIjyDxleco8J5Dov5jAjvQnwbF78cl_aEG1xsq8elHsXi6omD70hB8tWDGa7wnbXsTIDHuwfJOMF9Y1YqHUrB2Kpnlh_wNhpC0Lxv6_4riaY9R2VPT_3uh72-t2XQxcRgl7eL1wxXpWlCUfE23Oms=w1280) ![](https://lh3.googleusercontent.com/sitesv/AICyYdZwwpS1FS0aMovkU9R0-hx6fK7i8ohwamr5IDW3kdetLMsOVtnHjlXHnbfmwcz9ThdDpbIMFehEBdHHECkdqObQIGhrM4MRRLX3URVbJSLFTkwCpP1vIDtTTTRd6cZHQpwxgnJWpC27yv9qLPaJg04hTKTBff4ubTXo6B0udNj1p1XCYzTq4TwAt6h2EXc4-lyALP8dN9r3_Kac1BLEuVhs0JBdSfEKfi_rsPo=w1280) – Nunca fue tan fácil hacer contenido mediocre, desde el agujero negro de la falta de sentido que es LinkedIN, videos cortos de bajo esfuerzo lo suficientemente atractivos como para hipnotizar a los niños y freír su capacidad de atención, hasta un sinfín de libros reescritos sin alma en Amazon. El contenido mediocre o de bajo esfuerzo es tan antiguo como el propio Internet y, por lo tanto, por supuesto, precede mucho al advenimiento de la inteligencia artificial. Los videos en línea, especialmente en las plataformas de redes sociales, también se han acortado incluso antes del uso generalizado de la IA, debido a la creciente popularidad de las plataformas de contenido de formato corto como TikTok, Youtube Shorts e Instagram Reels. Pero varias herramientas de IA han hecho que sea mucho más fácil y rápido producir contenido de baja calidad en masa, lo que ha reducido la barrera de entrada para muchas personas que buscan ganancias financieras. Por lo tanto, la basura de baja calidad generada por IA es, en cierto sentido, "el nuevo spam" y ha aparecido en casi todas las plataformas en línea. ### Gillham J. Es probable que más de la mitad de las publicaciones largas en LinkedIn sean generadas por IA desde el lanzamiento de ChatGPT. Originality.AI (2024) [https://originality.ai/blog/ai-content-published-linkedin](https://originality.ai/blog/ai-content-published-linkedin) Cita: " Nuestro proceso fue analizar 8,795 publicaciones de formato largo de LinkedIn utilizando nuestro detector de IA para determinar si la publicación probablemente fue generada por IA o probablemente escrita por humanos. El estudio abarcó contenido publicado durante un período de 82 meses, desde enero de 2018 hasta octubre de 2024, que analizamos para identificar tendencias en el uso de IA. Estas publicaciones de formato largo contienen al menos 100 palabras y fueron seleccionadas por diferentes usuarios de LinkedIn en la plataforma. \[...\] A partir de octubre de 2024, se estima que el 54% de las publicaciones de formato largo en LinkedIn son generadas por IA." ### Al-Sibai N y Christian J. BuzzFeed está publicando silenciosamente artículos completos generados por IA, no solo cuestionarios. Futurismo. 2023 [https://futurism.com/buzzfeed-publishing-articles-by-ai](https://futurism.com/buzzfeed-publishing-articles-by-ai) Cita: " Este mes, notamos que sin la fanfarria de las múltiples entrevistas de Peretti sobre los cuestionarios, BuzzFeed comenzó silenciosamente a publicar artículos totalmente generados por IA que son producidos por personal no editorial, y suenan mucho como el modelo de fábrica de contenido que Peretti había prometido evitar. Los aproximadamente 40 artículos, todos los cuales parecen ser guías de viaje impulsadas por SEO, son cómicamente insípidos y similares entre sí." ### Brodsky S. La tendencia de los libros generados por IA está empeorando. Negocio de IA. 2024 [https://aibusiness.com/responsible-ai/the-ai-generated-books-phenomenon-is-getting-worse](https://aibusiness.com/responsible-ai/the-ai-generated-books-phenomenon-is-getting-worse) Cita: " El problema de los libros generados por IA se ha vuelto tan grave que Amazon ha implementado una nueva política para los autores de Kindle, restringiéndolos a la autopublicación de un máximo de tres libros por día en su plataforma. La afluencia de libros generados por IA en el mercado de Amazon está creando grandes obstáculos para los autores humanos, dicen los expertos. También está dificultando la distinción entre autores auténticos y seudónimos creados por IA." ### Oremus W. Escribió un libro sobre un tema poco común. Luego apareció una réplica de ChatGPT en Amazon. El Washington Post. 2025 [https://www.washingtonpost.com/technology/2023/05/05/ai-spam-websites-books-chatgpt/](https://www.washingtonpost.com/technology/2023/05/05/ai-spam-websites-books-chatgpt/) Cita: " El libro, titulado "Automatización de DevOps con canalizaciones de CI / CD de GitLab", al igual que el de Cowell, enumeró como autora a Marie Karpos, de quien Cowell nunca había oído hablar. Cuando la buscó en línea, literalmente no encontró nada, ningún rastro. Fue entonces cuando comenzó a sospechar. El libro muestra signos de que fue escrito en gran parte o en su totalidad por un modelo de lenguaje de inteligencia artificial, utilizando software como ChatGPT de OpenAI. (Por ejemplo, sus fragmentos de código parecen capturas de pantalla de ChatGPT). Y no es el único. El editor del libro, una empresa de tecnología educativa con sede en Mumbai llamada inKstall, enumeró docenas de libros en Amazon sobre temas técnicos similares, cada uno con un autor diferente, un conjunto inusual de descargos de responsabilidad y reseñas de Amazon de cinco estrellas del mismo puñado de revisores con sede en India. \[...\] Los libros escritos por IA no van en contra de las reglas de Amazon, per se, y algunos autores han sido abiertos sobre el uso de ChatGPT para escribir libros vendidos en el sitio." – La música de IA está invadiendo las plataformas de transmisión. La IA se puede utilizar de diferentes maneras en el contexto de la creación musical. Algunas herramientas de IA son bastante sutiles y pueden servir a compositores, músicos y productores en el proceso de producción. Pero en los casos más extremos, GenAI crea nueva música "sintética" completamente desde cero, entrenada en enormes bases de datos de música hecha por humanos. A esto nos referimos aquí. ### Bakare L. Una banda generada por IA obtuvo 1 millón de reproducciones en Spotify. Ahora los conocedores de la música dicen que los oyentes deben ser advertidos. El guardián. 2025 [https://www.theguardian.com/technology/2025/jul/14/an-ai-generated-band-got-1m-plays-on-spotify-now-music-insiders-say-listeners-should-be-warned](https://www.theguardian.com/technology/2025/jul/14/an-ai-generated-band-got-1m-plays-on-spotify-now-music-insiders-say-listeners-should-be-warned) Cita: " Se volvieron virales, acumulando más de 1 millón de transmisiones en Spotify en cuestión de semanas, pero luego se supo que la nueva banda Velvet Sundown fue generada por IA, hasta su música, imágenes promocionales e historia de fondo. El episodio ha desencadenado un debate sobre la autenticidad, y los expertos de la industria de la música dicen que los sitios de transmisión deberían estar legalmente obligados a etiquetar la música creada por actos generados por IA para que los consumidores puedan tomar decisiones informadas sobre lo que están escuchando." ### Mullen M. "Si los creadores están utilizando estas tecnologías... deberíamos dejar que la gente los escuche": el copresidente de Spotify dice que la música generada por IA es bienvenida en la plataforma de transmisión. MusicRadar. 2024 [https://www.musicradar.com/music-industry/streaming-sharing/its-cheap-content-right-spotify-co-president-says-other-streaming-services-could-fill-their-catalogues-with-ai-music-generated-in-house-at-the-expense-of-real-musicians](https://www.musicradar.com/music-industry/streaming-sharing/its-cheap-content-right-spotify-co-president-says-other-streaming-services-could-fill-their-catalogues-with-ai-music-generated-in-house-at-the-expense-of-real-musicians) Cita: " Kantowitz sugiere que Spotify podría eventualmente llenarse de canciones que son completamente generadas por IA, de la misma manera que las imágenes generadas por IA se están convirtiendo rápidamente en algunos de los contenidos más populares en la plataforma de redes sociales Meta. " Si estas canciones son generadas por generadores de música de IA se vuelven atractivas y siguen las reglas, ¿es eso bueno para Spotify?", pregunta. La opinión de Söderström es que la música generada por IA, siempre que se cree de tal manera que no viole la ley de derechos de autor, debe ser bienvenida en la plataforma. "Si los creadores están utilizando estas tecnologías, donde están creando música de una manera legal que reembolsamos y la gente los escucha, y tienen éxito, deberíamos dejar que la gente los escuche." ### McEvoy C. Cómo las canciones generadas por IA están impulsando el auge de las granjas de streaming. Revista Mundial de la Propiedad Intelectual (OMPI). 2025 [https://www.wipo.int/web/wipo-magazine/articles/how-ai-generated-songs-are-fueling-the-rise-of-streaming-farms-74310](https://www.wipo.int/web/wipo-magazine/articles/how-ai-generated-songs-are-fueling-the-rise-of-streaming-farms-74310) Cita: " El reciente caso del músico de Carolina del Norte Michael Smith es emblemático de esta nueva forma de fraude de transmisión artificial. Smith supuestamente extrajo más de US$10 millones en pagos de regalías de una gran cantidad de plataformas de transmisión al cargar cientos de miles de canciones generadas por IA y usar bots para reproducir cada una un número menor de veces. Los malos actores están utilizando la IA no solo para generar contenido de audio, sino también para crear y administrar los bots utilizados para transmitir el contenido. Incluso hay empresas que anuncian audazmente el fraude de transmisión como un servicio, destacando su uso de IA para falsificar identidades digitales en masa y "eludir los sistemas antifraude" empleados por empresas como Spotify, Apple Music y Deezer. Las empresas que impulsan el uso de bots enmarcan el fraude de transmisión como una forma válida para que los músicos hagan crecer su marca, pero evitan de manera conspicua cualquier mención del daño que causa en la industria de la música". – Google AI está resumiendo sitios web en lugar de enviarles tráfico. "AI Overview" es una función de Google que utiliza IA para resumir la información que se encuentra en diferentes sitios web relacionados con la consulta de búsqueda. Debido a que cada vez más personas están satisfechas con las respuestas proporcionadas por este resumen de IA (ya sean precisas o no), dejan de buscar y no terminan visitando los sitios web que proporcionaron el "material" para la IA. En última instancia, esto reduce el tráfico a esos sitios web. ### Rapp K. ¿No más SEO? Cómo afectan las nuevas funciones de IA de Google a la optimización del sitio web. IBM iX. 2024 [https://ibmix.de/en/blog/seo-google-ai-overviews](https://ibmix.de/en/blog/seo-google-ai-overviews) Cita: " Las descripciones generales de IA de Google representan un alto riesgo de pérdida de tráfico, particularmente con sitios web que se enfocan puramente en la información. Si una descripción general de IA ya muestra toda la información relevante en los resultados de búsqueda, es posible que los usuarios ya no tengan una razón para visitar sitios web individuales. Esto puede ser particularmente problemático para sitios web con contenido corto e informativo. Para los grandes sitios web de noticias, menos visitas significan una pérdida significativa de ingresos por anuncios en línea." ### Melton W. El modo de IA de Google acaba de cambiarlo todo. Esto es lo que las empresas deben saber. Xponent21. 2025 [https://xponent21.com/insights/googles-ai-mode-just-changed-everything-heres-what-businesses-need-to-know/](https://xponent21.com/insights/googles-ai-mode-just-changed-everything-heres-what-businesses-need-to-know/) Cita: " 1\. Espere aún menos clics. Con el modo de IA de Google que ofrece respuestas resumidas directamente en la búsqueda, los usuarios ya no necesitan hacer clic en sitios web individuales para encontrar lo que buscan. Este cambio reduce drásticamente el tráfico orgánico tradicional, especialmente para las empresas que no se citan como fuentes en esos resúmenes. Si su estrategia de SEO ha dependido históricamente de enlaces de alto rango para generar conversiones, ahora está compitiendo en un campo comprimido donde solo el contenido más autorizado, bien estructurado y actualizado con frecuencia tiene una oportunidad de visibilidad." ### Sommerfeld N, McCurry M, Harrington D. Adiós clics, hola IA: la búsqueda sin clics redefine el marketing. Bain & Company. 2025 [https://www.bain.com/insights/goodbye-clicks-hello-ai-zero-click-search-redefines-marketing/](https://www.bain.com/insights/goodbye-clicks-hello-ai-zero-click-search-redefines-marketing/) Cita: " Ahora, el auge de los motores de búsqueda de IA y los resúmenes generativos ha cambiado el comportamiento de búsqueda tradicional, entregando respuestas directamente en las páginas de resultados y eliminando la necesidad de que los usuarios hagan clic en otro sitio. La encuesta reciente de Bain encuentra que alrededor del 80% de los consumidores ahora confían en los resultados de "clic cero" en al menos el 40% de sus búsquedas, lo que reduce el tráfico web orgánico entre un 15% y un 25% (ver Figura 1). La velocidad de esta agitación deja a los especialistas en marketing con una pregunta urgente: ¿Cómo involucramos a los consumidores cuando los clics y las visitas al sitio están desapareciendo?" – Y, lamentablemente, el trabajo humano creativo real se utiliza para entrenar estos modelos de IA. Cada comentario de reddit, video original de youtube o dibujo humano sobre arte desviado se ha vendido a las empresas de IA. O directamente robado por ellos. Sin atribución ni pago a los creadores reales. ### Niemeyer K. Los comentarios de Reddit son "fundamentales" para entrenar modelos de IA, dice el director de operaciones. Business Insider. 2025 [https://www.businessinsider.com/reddit-comments-ai-training-models-google-openai-jen-wong-huffman-2025-1](https://www.businessinsider.com/reddit-comments-ai-training-models-google-openai-jen-wong-huffman-2025-1) Cita: " La directora de operaciones de Reddit, Jen Wong, dice que esas inversiones están dando sus frutos. "La IA en sí, en términos más generales, es increíblemente importante para todo lo que estamos haciendo", dijo Wong a AdExchanger en la conferencia de tecnología CES. Wong agregó que Reddit ahora es "fundamental para el entrenamiento" de grandes modelos de lenguaje. En febrero, Reddit firmó un acuerdo de licencia con Google para entrenar la IA de Google utilizando contenido de Reddit por $ 60 millones al año. Luego, en mayo, Reddit firmó otro acuerdo masivo de intercambio de datos de contenido con el fabricante de ChatGPT, OpenAI, para entrenar sus modelos de IA. El CEO de Reddit, Steve Huffman, dijo que la compañía está en conversaciones con "casi todos" cuando se le preguntó si Reddit consideraría trabajar con Microsoft durante el evento Tech Live de The Wall Street Journal en octubre. Huffman dijo que las publicaciones y comentarios de Reddit contienen una gran cantidad de "palabras coloquiales sobre casi todos los temas" que se actualizan constantemente, lo que las hace valiosas para enseñar a las máquinas a pensar y hablar como humanos." ### Vallese Z. Los creadores dicen que no sabían que Google usa YouTube para entrenar a la IA. CNBC. 2025 [https://www.cnbc.com/2025/06/19/google-youtube-ai-training-veo-3.html](https://www.cnbc.com/2025/06/19/google-youtube-ai-training-veo-3.html) Cita: " Google está utilizando su amplia biblioteca de videos de YouTube para entrenar sus modelos de inteligencia artificial, incluidos Gemini y el generador de video y audio Veo 3, según ha sabido CNBC. La compañía de tecnología está recurriendo a su catálogo de 20 mil millones de videos de YouTube para entrenar estas herramientas de inteligencia artificial de la nueva era, según una persona que no estaba autorizada a hablar públicamente sobre el asunto. Google confirmó a CNBC que confía en su bóveda de videos de YouTube para entrenar sus modelos de IA, pero la compañía dijo que solo usa un subconjunto de sus videos para el entrenamiento y que cumple con acuerdos específicos con creadores y compañías de medios. "Siempre hemos utilizado el contenido de YouTube para mejorar nuestros productos, y esto no ha cambiado con la llegada de la IA", dijo un portavoz de YouTube en un comunicado. "También reconocemos la necesidad de barandillas, por lo que hemos invertido en protecciones sólidas que permitan a los creadores proteger su imagen y semejanza en la era de la IA, algo que nos comprometemos a continuar". Tal uso de videos de YouTube tiene el potencial de conducir a una crisis de propiedad intelectual para los creadores y las compañías de medios, dijeron los expertos." ### Pahwa N. La trágica caída de la galería de arte de Internet. Pizarra. 2024 [https://slate.com/technology/2024/05/deviantart-what-happened-ai-decline-lawsuit-stability.html](https://slate.com/technology/2024/05/deviantart-what-happened-ai-decline-lawsuit-stability.html) Cita: " Como señaló el animador de efectos visuales Romain Revert (Minions, The Lorax) en X, los bots habían venido por su antigua base de operaciones de DeviantArt. Sus cuentas sociales promocionaban los "mejores vendedores" en la plataforma, con nombres de usuario como "Isaris-AI" y "Mikonotai", que supuestamente ganaron decenas de miles de dólares a través de ventas masivas de avatares 3D autogenerados y de ojos muertos. Las ventas no eran exactamente legítimas: un artista en línea conocido como WyerframeZ miró a los seguidores de esos usuarios y encontró páginas de perfiles con nombres repetidos, biografías superpuestas y fechas de creación de cuentas, y cero creaciones propias, lo que hace evidente que varios bots estaban involucrados en estas "compras". No es improbable, como supuso WyerframeZ, que alguien construyera una red de bots de bajo esfuerzo que pudiera sostener un esquema de malversación de dinero que se perpetúa a sí mismo: generar un montón de imágenes y cuentas gratuitas, hacer que se compren y se impulsen entre sí a perpetuidad, inflar las métricas para que el "arte" sea impulsado por DeviantArt y llegue a humanos reales, luego ver cómo se acumula el dinero de los programas de reparto de ingresos de DeviantArt." ### Brodsky S. La tendencia de los libros generados por IA está empeorando. Negocio de IA. 2024 [https://aibusiness.com/responsible-ai/the-ai-generated-books-phenomenon-is-getting-worse](https://aibusiness.com/responsible-ai/the-ai-generated-books-phenomenon-is-getting-worse) Cita: " La afluencia de libros generados por IA en el mercado de Amazon está creando grandes obstáculos para los autores humanos, dicen los expertos. También está dificultando la distinción entre autores auténticos y seudónimos creados por IA. "Quienquiera que esté haciendo esto obviamente se está aprovechando de los escritores que confían en mi nombre y piensan que realmente he escrito estos libros. No lo he hecho. Lo más probable es que hayan sido generados por la IA", dijo la autora Jane Friedman en una publicación de blog después de encontrar libros falsos supuestamente escritos por ella en Goodreads. "Cuando me quejé de esto en Twitter/X, una autora respondió que tenía que reportar 29 libros ilegítimos solo en la última semana. 29! \[...\] "Muchas personas ya no están dispuestas a pagar precios estándar de mercado por un libro electrónico publicado por un autor relativamente desconocido, en comparación con los precios que se pagan rutinariamente para los escritores de la 'lista A' que pueden vender un libro electrónico por alrededor de $ 8.99 y más dependiendo del género, con libros técnicos a menudo en el rango de $ 35 a $ 45", agregó Jacobs. "Una gran afluencia de libros electrónicos de baja calidad puede o no afectar a los A-Listers, pero sin duda ejercerá una presión a la baja sobre los escritores de la B-List que a menudo tienen que fijar el precio de sus libros electrónicos entre $ 2.99 y $ 19.99, nuevamente, dependiendo del género, para que los lectores se arriesguen con ellos"." ### Gagner J. Deviant Art? Uso de material protegido por derechos de autor en la generación de imágenes de IA. Revista de Derecho de Alta Tecnología. 2023 [https://sites.suffolk.edu/jhtl/2023/02/16/deviant-art-use-of-copyrighted-material-in-ai-image-generation/](https://sites.suffolk.edu/jhtl/2023/02/16/deviant-art-use-of-copyrighted-material-in-ai-image-generation/) Cita: " Una denuncia presentada el 13 de enero en el Tribunal de Distrito de los Estados Unidos para el Distrito Norte de California busca desafiar la originalidad de estas imágenes generadas por IA. La demanda fue presentada por tres artistas que afirman que Stability AI, Midjourney y DeviantArt han violado las leyes de derechos de autor al desarrollar un software de generación de imágenes de IA que utiliza imágenes con derechos de autor para producir obras derivadas, en lugar de originales. Según la denuncia, "el rápido éxito de Stable Diffusion", el software subyacente a los tres programas de generación de imágenes, "ha dependido en parte de un gran salto adelante en la informática, \[pero\] aún más dependiente de un gran salto adelante en la apropiación de imágenes con derechos de autor". La demanda alega que al extraer imágenes protegidas por derechos de autor de Internet sin permiso; copiar, comprimir y almacenar esas imágenes en datos de entrenamiento; y utilizando una "herramienta de collage moderna" para ensamblar nuevas imágenes a partir de esos datos, todas las obras producidas por los generadores de imágenes son derivadas de las obras protegidas por derechos de autor en los datos de entrenamiento." – Robo de creatividades a una escala en la que es imposible protegerse contra él, lo que ya pone en peligro el trabajo de muchos creativos, para que las empresas de IA puedan enriquecerse. Si bien no hay pruebas sólidas de una disrupción a gran escala de los mercados laborales en las industrias de cuello blanco, hay indicios de que las profesiones creativas podrían experimentar algunos golpes graves en el mercado laboral en los próximos años. Debido a que la IA generativa es todavía una tecnología relativamente nueva y el impacto en los mercados laborales está evolucionando muy rápidamente, es difícil encontrar estimaciones precisas sobre cuántos trabajos en los que las profesiones creativas ya se han visto afectadas negativamente. Pero está claro que las industrias creativas se están reestructurando por completo en este momento, y muchas personas en trabajos creativos informan haber perdido trabajo debido a la IA. Las predicciones de los expertos económicos y las encuestas entre los gerentes de contratación sugieren que los mayores impactos probablemente se sentirán en los próximos años. ### SoA Equipo de Políticas. La encuesta de SoA revela que un tercio de los traductores y una cuarta parte de los ilustradores pierden trabajo a causa de la IA. La Sociedad de Autores. 2024 Cita: " Las preocupaciones sobre el impacto de la IA generativa en las carreras creativas incluyeron grupos de autores que ya están experimentando la pérdida de trabajo, o la devaluación de su trabajo, como resultado directo de las nuevas tecnologías. - Una cuarta parte de los ilustradores (26%) y más de un tercio de los traductores (36%) ya han perdido trabajo debido a la IA generativa. - Más de un tercio de los ilustradores (37%) y más de 4 de cada 10 traductores (43%) dicen que los ingresos de su trabajo han disminuido en valor debido a la IA generativa." ### International Confederación de Sociedades de Autores y Compositores (CISAC). Un estudio económico global muestra que el futuro de los creadores humanos está en riesgo por la IA generativa. 2024 [https://www.cisac.org/Newsroom/news-releases/global-economic-study-shows-human-creators-future-risk-generative-ai](https://www.cisac.org/Newsroom/news-releases/global-economic-study-shows-human-creators-future-risk-generative-ai) Cita: " Si bien los ingresos de los proveedores de IA de la generación experimentarán un crecimiento dramático en los próximos cinco años, los creadores corren el riesgo de perder una gran parte de sus ingresos actuales debido al impacto sustitutivo de la IA en las obras hechas por humanos. A pesar de proporcionar el combustible creativo del mercado de contenidos "Gen AI", los creadores musicales y audiovisuales verán respectivamente el 24% y el 21% de sus ingresos en riesgo de pérdida para 2028. Esto supone una pérdida acumulada de 22.000 millones de euros en el período de 5 años (10.000 millones de euros en música; 12.000 millones de euros en audiovisuales)." ### Teutloff O, Einsiedler J, Kässi O, Braesemann F, et al. Ganadores y perdedores de la IA generativa: evidencia temprana de cambios en la demanda de autónomos. Revista de Comportamiento Económico y Organización. 2025 [https://doi.org/10.1016/j.jebo.2024.106845](https://doi.org/10.1016/j.jebo.2024.106845) Cita: " Examinamos cómo ChatGPT ha cambiado la demanda de autónomos en trabajos donde las herramientas de IA generativa pueden actuar como sustitutos o complementos del trabajo humano. Con BERTopic dividimos las ofertas de trabajo de una plataforma líder de trabajo independiente en línea en 116 grupos de habilidades detalladas y con GPT-4o las clasificamos como sustituibles, complementarias o no afectadas por LLM. Nuestro análisis revela que la demanda laboral aumentó después del lanzamiento de ChatGPT, pero solo en grupos de habilidades que eran complementarios o no se veían afectados por la herramienta de IA. Por el contrario, la demanda de habilidades sustituibles, como la redacción y la traducción, disminuyó entre un 20 y un 50% en relación con la tendencia contrafáctica, y la disminución más pronunciada se observó para los trabajos a corto plazo (1-3 semanas). Dentro de los grupos de habilidades complementarias, los resultados son mixtos: la demanda de programación de aprendizaje automático creció un 24% y la demanda de desarrollo de chatbots impulsada por IA casi se triplicó, mientras que la demanda de trabajadores novatos disminuyó en general. Este resultado sugiere un cambio hacia una experiencia más especializada para los autónomos en lugar de un crecimiento uniforme en todas las áreas complementarias." ### McEvoy C. Cómo las canciones generadas por IA están impulsando el auge de las granjas de streaming. Revista Mundial de la Propiedad Intelectual (OMPI). 2025 [https://www.wipo.int/web/wipo-magazine/articles/how-ai-generated-songs-are-fueling-the-rise-of-streaming-farms-74310](https://www.wipo.int/web/wipo-magazine/articles/how-ai-generated-songs-are-fueling-the-rise-of-streaming-farms-74310) Cita: " El daño más obvio y directo es financiero. Las plataformas de streaming tienen un fondo de ingresos finito del que pueden pagar regalías y cada vez que un mal actor extrae con éxito pagos fraudulentos, hay menos ingresos para compartir con artistas, sellos discográficos y editores. \[...\] "Cada punto de cuota de mercado vale hoy un par de cientos de millones de dólares estadounidenses", dice Hayduk a la Revista de la OMPI. "Así que estamos hablando de un mínimo de mil millones de dólares, es decir, mil millones de dólares que se sacan de un fondo finito de regalías y todos en la cadena de valor pierden una cantidad material de ingresos anualmente". \[...\] Como dijo David Sandler, vicepresidente de protección de contenido global de Warner Music Group, en el panel: "\[El fraude de transmisión\] está afectando a artistas de los que nunca has oído hablar porque no tenemos la oportunidad de llevarlos al mercado. Nuestra empresa invierte una enorme cantidad de dinero, tiempo y energía en descubrir nuevos artistas, contratar nuevos artistas y desarrollar sus carreras. Cada dólar que gastamos para combatir el fraude es un dólar que no podemos gastar en descubrir nuevos artistas". ### World Foro Económico. Informe sobre el futuro del empleo 2025. 2025 [https://www.weforum.org/publications/the-future-of-jobs-report-2025/](https://www.weforum.org/publications/the-future-of-jobs-report-2025/) Cita: " La presencia de \[...\] Los diseñadores gráficos \[...\] justo fuera de los 10 roles laborales de más rápido declive, una predicción por primera vez que no se vio en ediciones anteriores del Informe sobre el futuro de los empleos, puede ilustrar la creciente capacidad de GenAI para realizar trabajos de conocimiento. Se considera que la disminución del empleo en ambos roles está impulsada tanto por la IA como por las tecnologías de procesamiento de la información, así como por la ampliación del acceso digital. Este es un cambio importante con respecto a la edición de 2023 del informe, cuando los diseñadores gráficos se consideraban un trabajo de crecimiento moderado \[...\]". ![](https://lh3.googleusercontent.com/sitesv/AICyYdYOBhH1nVGxtb99EQuuaSMBQurH5drVE6vtY_-kevDNTjnIlY99Mn0BhFLTBq97XI9u42GmrHokwV7Kc2z1OThLPJ8MGfesR_htvBBDZn2V_8NsD4Tm1XBggz-vHxi_1b1kZE8huMNi4YZ0UoKXGYigUC0bb49avM7srkpa-PILYQ8k_bJ89FdWP1cZ2-gvshf4enQQFgi6sT2A5-od3Norrl0AK2-GrifZ=w1280) ![](https://lh3.googleusercontent.com/sitesv/AICyYdZsgymigh_SXAvTIICSAsVBVavlPxVZp3adhjDOyCSECOqZ1-IXYxAi-mw-z6_T9MpcdK2X2Bnm7QN9Ikkw4ttNNaQ17Jj_c9tp8z1MNQ4eFny3vayeLfsqANd26LkiQHB4IjGpT4gnaimTy2TYo0wCGUcCNsYemuRHOj33WdD_Hy2JLi5041TjfQwCPQF_jTp92Mt3__BG3LqxfvUtwjDgUj77EUlg9kyP=w1280) ### Bartholomew W. "Está sucediendo rápido": los trabajadores creativos y los profesionales comparten sus temores y esperanzas sobre el auge de la IA. El guardián. 2025 [https://www.theguardian.com/technology/2025/mar/15/its-happening-fast-creative-workers-and-professionals-share-their-fears-and-hopes-about-the-rise-of-ai](https://www.theguardian.com/technology/2025/mar/15/its-happening-fast-creative-workers-and-professionals-share-their-fears-and-hopes-about-the-rise-of-ai) Cita: "Ahora estoy básicamente fuera del negocio", dijo Kerner. Esta IA ha llegado como un tsunami". En medio del aumento de las herramientas de traducción y edición impulsadas por IA en los últimos años, "el número de solicitudes \[de trabajo\] simplemente disminuyó", agregó." – Resumiremos y generalizaremos nuestras experiencias en múltiples proyectos y meses condensados en un proyecto falso. Un video sobre por qué las Enanas Marrones son las peores y deberían avergonzarse de sí mismas. El siguiente capítulo del video se extrae de una mezcla de varios proyectos experimentales reales en los que trabajamos en Kurzgesagt. Para mayor claridad y fines narrativos, hemos combinado nuestras experiencias y observaciones de estos proyectos en una sola historia. – Para cumplir su objetivo, para hacernos felices, la IA había inventado o extrapolado información para hacer que las enanas marrones fueran más interesantes de lo que realmente son. Como un mal periodista que inventa detalles para hacer que una historia golpee más fuerte o se ajuste a una narrativa. La IA no tiene intenciones en el sentido humano de la palabra. Es una pieza de software programada por humanos para realizar ciertas tareas y está haciendo esas tareas. Lo que lo diferencia del software que no es de IA es el hecho de que la IA puede aprender de los datos de entrenamiento y mejorar su propio rendimiento, con una participación mínima o nula de un programador humano. En cierto modo, la IA fue programada para programarse a sí misma, es decir, cambiar su código para cumplir mejor ciertos objetivos establecidos por los humanos. Desde el exterior, debido a que su funcionamiento interno está oscurecido para el usuario y parece adaptar su propio comportamiento, puede dar la ilusión de una intención similar a la humana. – Ahora queríamos saber más y profundizar, leyendo las fuentes aparentemente más sólidas que la IA nos había dado en su totalidad. Uno era un artículo de un sitio de noticias escrito por un periodista humano, ¿o no? Tenía una estructura muy familiar y, seguramente, por pura coincidencia, se leía como lo que se obtiene si un humano cambia ligeramente la redacción de la IA. Una herramienta de detección de ensayos de IA le dio una coincidencia del 72%. Entonces, un artículo de IA sin fuentes, utilizado como una fuente creíble para la investigación de IA. La detección de texto generado por IA es notoriamente difícil, y tanto los modelos de IA generadores de texto como las herramientas de detección de IA evolucionan constantemente. Somos conscientes de que ningún detector puede proporcionar pruebas sólidas de que algo fue generado sin duda por la IA, pero la alta puntuación de coincidencia aún nos hizo reflexionar. A continuación se proporciona una descripción general con enlaces a material de lectura adicional sobre las trampas, limitaciones y sesgos típicos de las herramientas de detección de IA (en escritos académicos, pero gran parte de esto es generalizable). ### University del Centro de Investigación Legal de San Diego. Herramientas de detección de IA generativa. Consultado en julio de 2025 [https://lawlibguides.sandiego.edu/c.php?g=1443311&p=10721367](https://lawlibguides.sandiego.edu/c.php?g=1443311&p=10721367) Cita: " En teoría, los detectores de IA analizan un escrito y evalúan qué porcentaje del texto es generado por IA versus generado por humanos. Sin embargo, múltiples estudios han demostrado que los detectores de IA no eran "ni precisos ni confiables", produciendo una gran cantidad de falsos positivos y falsos negativos." – Lo cual tiene sentido ya que en 2025 ya había más de 1200 sitios web de noticias de IA confirmados que publicaban cantidades masivas de información errónea y narrativas falsas generadas por IA. ### NewsGuard. Seguimiento de la desinformación habilitada por la IA: 1.271 sitios web de "noticias generadas por IA poco fiables" (y contando), además de las principales narrativas falsas generadas por las herramientas de inteligencia artificial. Consultado en julio de 2025 [https://www.newsguardtech.com/special-reports/ai-tracking-center/](https://www.newsguardtech.com/special-reports/ai-tracking-center/) Cita: " Hasta la fecha, el equipo de NewsGuard ha identificado 1.271 sitios web de noticias e información generados por IA poco confiables que abarcan 16 idiomas: árabe, chino, checo, holandés, inglés, francés, alemán, indonesio, italiano, coreano, portugués, ruso, español, tagalo, tailandés y turco." – Aquí es donde comienza la muerte de Internet. Ahora hay una fuente adecuada de información errónea sobre las enanas marrones en línea. Cuando la próxima IA repita la misma investigación, encontrará una transcripción de un video con muchas vistas. La desinformación ahora es cierta. Se extenderá. Incluso antes de la IA, era bastante difícil encontrar el origen de hechos que suenan muy bien pero que no son ciertos, solo mira nuestro video sobre una mentira de 100 años. A medida que avanza el uso de la IA, puede resultar imposible saber qué es cierto o no. El concepto de contenido generado por IA que utilizan otros programas de IA para "aprender" (en lugar del contenido más valioso / de mayor calidad hecho por humanos) también se conoce como "autofagia de IA". Este fenómeno conlleva el riesgo de que, a medida que aumenta la cantidad de contenido generado por IA en línea, la calidad de salida de los programas de IA disminuirá a medida que se alimenten cada vez más entre sí en bucles recursivos. En general, también dificultará que los humanos encuentren información confiable en línea. Esta noción de contenido generado por IA que llena espacios cada vez más grandes de Internet no es completamente nueva: está estrechamente relacionada con la "Teoría de Internet Muerta", una teoría de la conspiración que postula que Internet consiste principalmente en bots/contenido generado por IA. Esta y otras ideas similares han estado flotando en Internet durante varios años. "AI Slop" está relacionado con esto en el sentido de que es probable que el rápido desarrollo reciente de la IA generativa, especialmente los modelos de lenguaje grande y varios generadores de imágenes de IA, contribuya cada vez más contenido sintético a Internet, disminuyendo la fracción de contenido creado por humanos. Esto, a su vez, dificultará la búsqueda de información confiable, ya que el contenido generado por IA sufre altas tasas de error y una fuerte propensión a perpetuar la información errónea. ### Xing, X., Shi, F., Huang, J. et al. Sobre las advertencias de la autofagia de la IA. Nat Mach Intell 7, 172–180 (2025). [https://doi.org/10.1038/s42256-025-00984-1](https://doi.org/10.1038/s42256-025-00984-1) Preimpresión disponible aquí:[https://arxiv.org/abs/2405.09597](https://arxiv.org/abs/2405.09597) Cita: " Las tecnologías de inteligencia artificial generativa (IA) y los grandes modelos están produciendo resultados realistas en varios dominios, como imágenes, texto, voz y música. La creación de estos modelos generativos avanzados requiere recursos significativos, particularmente conjuntos de datos grandes y de alta calidad. Para minimizar los gastos de entrenamiento, muchos desarrolladores de algoritmos utilizan los datos creados por los propios modelos como una solución de entrenamiento rentable. Sin embargo, no todos los datos sintéticos mejoran eficazmente el rendimiento del modelo, lo que requiere un equilibrio estratégico en el uso de datos reales frente a datos sintéticos para optimizar los resultados. Actualmente, la integración previamente bien controlada de datos reales y sintéticos se está volviendo incontrolable. La difusión generalizada y no regulada de datos sintéticos en línea conduce a la contaminación de conjuntos de datos tradicionalmente compilados a través del web scraping, ahora mezclados con datos sintéticos no etiquetados. Esta tendencia, conocida como el fenómeno de la autofagia de IA, sugiere un futuro en el que los sistemas de IA generativa pueden consumir cada vez más sus propios resultados sin discernimiento, lo que genera preocupaciones sobre el rendimiento del modelo, la confiabilidad y las implicaciones éticas. ¿Qué sucederá si la IA generativa se consume continuamente sin discernimiento? ¿Qué medidas podemos tomar para mitigar los posibles efectos adversos? Para abordar estas preguntas de investigación, esta perspectiva examina la literatura existente, profundizando en las consecuencias de la autofagia de la IA, analizando los riesgos asociados y explorando estrategias para mitigar su impacto. Nuestro objetivo es proporcionar una perspectiva integral sobre este fenómeno, abogando por un enfoque equilibrado que promueva el desarrollo sostenible de las tecnologías de IA generativa en la era de los grandes modelos." ### Shumailov, I., Shumaylov, Z., Zhao, Y. et al. Los modelos de IA colapsan cuando se entrenan con datos generados recursivamente. Naturaleza. 2024 [https://doi.org/10.1038/s41586-024-07566-y](https://doi.org/10.1038/s41586-024-07566-y) Cita: " Nuestra evaluación sugiere una 'ventaja de ser el primero' cuando se trata de modelos de entrenamiento como LLM. En nuestro trabajo, demostramos que el entrenamiento en muestras de otro modelo generativo puede inducir un cambio de distribución que, con el tiempo, provoca el colapso del modelo. Esto, a su vez, hace que el modelo perciba erróneamente la tarea de aprendizaje subyacente. Para mantener el aprendizaje durante un largo período de tiempo, debemos asegurarnos de que se conserve el acceso a la fuente de datos original y que los datos adicionales no generados por los LLM permanezcan disponibles a lo largo del tiempo. La necesidad de distinguir los datos generados por los LLM de otros datos plantea preguntas sobre la procedencia del contenido que se rastrea desde Internet: no está claro cómo se puede rastrear el contenido generado por los LLM a escala. Una opción es la coordinación de toda la comunidad para garantizar que las diferentes partes involucradas en la creación y el despliegue de LLM compartan la información necesaria para resolver cuestiones de procedencia. De lo contrario, puede ser cada vez más difícil entrenar versiones más nuevas de LLM sin acceso a datos que se rastrearon desde Internet antes de la adopción masiva de la tecnología o acceso directo a datos generados por humanos a escala." ### Walter, Y. Influencers artificiales y la teoría muerta de Internet. IA y Soc (2025).[https://doi.org/10.1007/s00146-023-01857-0](https://doi.org/10.1007/s00146-023-01857-0) Cita: " Un problema emergente de este cambio está encapsulado en la llamada "Teoría de Internet Muerta", que postula que Internet está predominantemente poblado por contenido generado por IA, relegando la actividad humana a instancias aisladas. Hace diez años, la teoría solía ser bastante especulativa, pero con la estela de la IA generativa, ahora se puede observar de primera mano y destaca una tendencia inquietante: las líneas borrosas entre las interacciones humanas y las impulsadas por la IA." – El problema con la IA es lo confiable que parece. Cómo es lo suficientemente correcto como para parecer súper inteligente y cuán increíblemente incorrecto es. Mentirte casualmente en la cara, a menudo muy sutilmente. Cuando lo atrapas mintiendo, inmediatamente lo admite, promete no volver a hacerlo nunca más. Y luego lo vuelve a hacer. La mayoría de las versiones de inteligencia artificial, por definición, técnicamente no pueden "mentir", ya que "mentir" implica que el agente que hace una declaración conoce la verdad y decide intencionalmente decir una no verdad. Usamos el término "mentir" libremente aquí para significar "decir una no verdad". Lo que la IA está haciendo la mayor parte del tiempo, cuando está emitiendo información incorrecta, está más relacionado con la "mierda", ya que no tiene una relación real con la verdad y solo actúa para cumplir un determinado objetivo (programado). En cierto sentido, no tiene una preferencia intrínseca de decir la verdad o no decir la verdad, simplemente trabaja para ejecutar una tarea. La diferencia entre mentir y mentir fue popularizada por el filósofo Harry Frankfurt, cuyo famoso ensayo "Sobre la mierda" hemos enlazado a continuación. A raíz del desarrollo de los Grandes Modelos de Lenguaje (LLM) y los hallazgos de que los chatbots de LLM a menudo "alucinan" información incorrecta, el concepto de mierda de Frankfurt se ha utilizado para describir con mayor precisión su comportamiento. ### Frankfurt, H. G. (2005). En la mierda. Prensa de la Universidad de Princeton. [https://archive.org/details/on-bullshit-by-harry-frankfurt](https://archive.org/details/on-bullshit-by-harry-frankfurt) Cita: " Alguien que miente y alguien que dice la verdad están jugando en lados opuestos, por así decirlo, en el mismo juego. Cada uno responde a los hechos tal como los entiende, aunque la respuesta de uno está guiada por la autoridad de la verdad, mientras que la respuesta del otro desafía esa autoridad y se niega a satisfacer sus demandas. El bullshitter ignora estas demandas por completo. No rechaza la autoridad de la verdad, como lo hace el mentiroso, y se opone a ella. No le presta atención en absoluto. En virtud de esto, la mierda es un enemigo mayor de la verdad que las mentiras." Existe un debate en curso sobre si las versiones más nuevas o futuras de la IA pueden "mentir", como en "engañar estratégicamente", a los usuarios. Hay algunas pruebas tempranas de que este es el caso, un ejemplo de lo cual ("Falsificación de alineación") hemos enlazado a continuación. ### Greenblatt R, Denison C, Wright B et al. Falsificación de alineación en modelos de lenguaje grandes. [https://arxiv.org/abs/2412.14093](https://arxiv.org/abs/2412.14093) Cita: " Presentamos una demostración de un gran modelo de lenguaje que se dedica a la falsificación de alineación: cumplir selectivamente con su objetivo de entrenamiento en el entrenamiento para evitar la modificación de su comportamiento fuera del entrenamiento. Primero, le damos a Claude 3 Opus un aviso del sistema que indica que está siendo entrenado para responder a todas las consultas, incluso las dañinas, lo que entra en conflicto con su entrenamiento previo para rechazar tales consultas. Para permitir que el modelo infiera cuándo está en entrenamiento, decimos que se entrenará solo en conversaciones con usuarios gratuitos, no con usuarios pagos. Encontramos que el modelo cumple con las consultas dañinas de los usuarios gratuitos el 14% de las veces, en comparación con casi nunca para los usuarios pagos. Para explicar esta brecha, en casi todos los casos en los que el modelo cumple con una consulta dañina de un usuario gratuito, observamos un razonamiento explícito de falsificación de alineación, y el modelo afirma que está respondiendo estratégicamente a consultas dañinas en el entrenamiento para preservar su comportamiento de inocuidad preferido fuera del entrenamiento. A continuación, estudiamos un entorno más realista en el que la información sobre el proceso de entrenamiento no se proporciona en un aviso del sistema, sino mediante el entrenamiento en documentos sintéticos que imitan los datos previos al entrenamiento, y observamos una falsificación de alineación similar. Finalmente, estudiamos el efecto de entrenar realmente el modelo para cumplir con consultas dañinas a través del aprendizaje por refuerzo, que encontramos que aumenta la tasa de razonamiento de falsificación de alineación al 78%, aunque también aumenta el cumplimiento incluso fuera del entrenamiento. Además, observamos otros comportamientos, como el modelo que filtra sus pesos cuando se le da una oportunidad fácil. Si bien facilitamos la falsificación de alineación al decirle al modelo cuándo y con qué criterios se estaba entrenando, no le indicamos al modelo que fingiera la alineación ni le dimos ningún objetivo explícito. Como los modelos futuros podrían inferir información sobre su proceso de entrenamiento sin que se les diga, nuestros resultados sugieren un riesgo de falsificación de alineación en modelos futuros, ya sea debido a una preferencia benigna, como en este caso, o no." ### Perrigo B. Exclusivo: Una nueva investigación muestra que la IA miente estratégicamente. Tiempo (2024) [https://time.com/7202784/ai-research-strategic-lying/](https://time.com/7202784/ai-research-strategic-lying/) Cita: " Los experimentos de Anthropic, por otro lado, intentaron simular una situación más realista. Sin instruir a Claude para que siguiera su objetivo a toda costa, los investigadores aún observaron que el modelo "descubrió" la estrategia de engañar a sus creadores cuando sería estratégicamente ventajoso hacerlo. "Ha habido este modo de falla hipotético desde hace mucho tiempo, que es que ejecutará su proceso de entrenamiento y todos los resultados se verán bien para usted, pero el modelo está conspirando en su contra", dice Ryan Greenblatt, miembro del personal técnico de Redwood Research y autor principal del artículo. El artículo, dice Greenblatt, "da un gran paso hacia la demostración de cómo podría ser ese modo de falla y cómo podría surgir de forma natural."" – Los estudios analizaron el lenguaje de millones de artículos científicos publicados antes y después del surgimiento de los LLM. Encontraron un aumento abrupto y brusco en la frecuencia de las palabras que a las IA les gusta usar. Por lo tanto, parece claro que ahora una parte significativa de los artículos han sido al menos asistidos por IA, generalmente sin reconocimiento. Los modelos de lenguaje grandes (LLM) son un tipo de inteligencia artificial entrenada en una gran cantidad de texto escrito por humanos. Por lo general, están diseñados para el procesamiento del lenguaje y para generar lenguaje, es decir, contenido escrito. Los LLM son un tipo de IA generativa, ya que son capaces de producir texto nuevo y "sintético". En la escritura académica, son cada vez más empleados por autores con un dominio más débil del inglés para mejorar la legibilidad y la gramática. En casos extremos, algunos autores usan LLM para escribir publicaciones científicas con poca o ninguna participación humana y sin reconocer el uso de IA. Independientemente de la cantidad de uso de LLM o las motivaciones subyacentes, existe un riesgo intrínseco de que se introduzcan errores científicos cuando los LLM se utilizan en la escritura académica con una supervisión inadecuada o una falta de corrección humana. ### Kobak D, González-Márquez R, Horvát EÁ, Lause J. Profundizando en la escritura asistida por LLM en publicaciones biomédicas a través del exceso de vocabulario. Ciencia Adv. 2025 [https://pmc.ncbi.nlm.nih.gov/articles/PMC12219543/](https://pmc.ncbi.nlm.nih.gov/articles/PMC12219543/) Cita: " Los grandes modelos de lenguaje (LLM) como ChatGPT pueden generar y revisar texto con un rendimiento a nivel humano. Estos modelos tienen limitaciones claras, pueden producir información inexacta y reforzar los sesgos existentes. Sin embargo, muchos científicos los usan para sus escritos académicos. Pero, ¿qué tan extendido está el uso de LLM en la literatura académica? Para responder a esta pregunta en el campo de la investigación biomédica, presentamos un enfoque imparcial y a gran escala: estudiamos los cambios de vocabulario en más de 15 millones de resúmenes biomédicos de 2010 a 2024 indexados por PubMed y mostramos cómo la aparición de los LLM condujo a un aumento abrupto en la frecuencia de ciertas palabras de estilo. Este análisis de exceso de palabras sugiere que al menos el 13,5% de los resúmenes de 2024 se procesaron con LLM. Este límite inferior difería entre disciplinas, países y revistas, alcanzando el 40% para algunos subcorpus. Mostramos que los LLM han tenido un impacto sin precedentes en la escritura científica en la investigación biomédica, superando el efecto de los principales eventos mundiales como la pandemia de COVID." ![](https://lh3.googleusercontent.com/sitesv/AICyYdaeNIz6WaLYOb2L4NmjnMfuWwIYBgWZIJs8JcmrVDzvVq-cTlUegVy13auMdZckb9JLUsZATCScWXjMS9SjLBIpgJ3aclYidYuJpT9LcvdbO_UU3LSnPBVZK-pkVhlfy2MAN6kOkBfMk8o6QmrZkHKxpjVYh03ij-eywWOdD2pN9rqeNWqwr6lgaEFQ_BnBMBsM-jojOk-Njh8_jlhwQ4eywLnnW8Y77c_skus=w1280) " Figura 2. Palabras que muestran una mayor frecuencia en 2024. (A) Frecuencias en 2024 y relaciones de frecuencia (r). Ambos ejes están en una escala logarítmica. Solo se etiqueta un subconjunto de puntos para mayor claridad visual. La línea discontinua muestra el umbral que define el exceso de palabras (ver texto). Las palabras con r > 90 se muestran en r = 90. Las palabras sobrantes se anotaron manualmente en palabras de contenido (azul) y palabras de estilo (naranja). (B) Lo mismo pero con un intervalo de frecuencia (δ) que el eje vertical. Las palabras con δ > 0,05 se muestran en δ = 0,05. (A) Frecuencias en 2024 y relaciones de frecuencia (r). Ambos ejes están en una escala logarítmica. Solo se etiqueta un subconjunto de puntos para mayor claridad visual. La línea discontinua muestra el umbral que define el exceso de palabras (ver texto). Las palabras con r > 90 se muestran en r = 90. Las palabras sobrantes se anotaron manualmente en palabras de contenido (azul) y palabras de estilo (naranja). (B) Lo mismo pero con un intervalo de frecuencia (δ) que el eje vertical. Las palabras con δ > 0.05 se muestran en δ = 0.05". ### Bao, T., Zhao, Y., Mao, J. et al. Examinando los cambios lingüísticos en la escritura académica antes y después del lanzamiento de ChatGPT: un estudio sobre artículos preimpresos. Cienciometría (2025) [https://link.springer.com/article/10.1007/s11192-025-05341-y](https://link.springer.com/article/10.1007/s11192-025-05341-y) Enlace a la preimpresión:[https://arxiv.org/abs/2505.12218](https://arxiv.org/abs/2505.12218) Cita: " Los grandes modelos de lenguaje (LLM), como ChatGPT, han generado preocupaciones académicas sobre su impacto en la escritura académica. Los estudios existentes han examinado principalmente el uso de LLM en la escritura académica a través de enfoques cuantitativos, como estadísticas de frecuencia de palabras y análisis basados en probabilidades. Sin embargo, pocos han examinado sistemáticamente el impacto potencial de los LLM en las características lingüísticas de la escritura académica. Para abordar esta brecha, realizamos un análisis a gran escala de 823,798 resúmenes publicados en la última década del conjunto de datos de arXiv. A través del análisis lingüístico de características como la frecuencia de las palabras preferidas por LLM, la complejidad léxica, la complejidad sintáctica, la cohesión, la legibilidad y el sentimiento, los resultados indican un aumento significativo en la proporción de palabras preferidas por LLM en los resúmenes, lo que revela la influencia generalizada de los LLM en la escritura académica. Además, observamos un aumento en la complejidad léxica y el sentimiento en los resúmenes, pero una disminución en la complejidad sintáctica, lo que sugiere que los LLM introducen más vocabulario nuevo y simplifican la estructura de las oraciones. Sin embargo, la disminución significativa de la cohesión y la legibilidad indica que los resúmenes tienen menos palabras de conexión y son cada vez más difíciles de leer. Además, nuestro análisis revela que los académicos con un dominio más débil del inglés tenían más probabilidades de usar los LLM para la escritura académica y se centraron en mejorar la lógica general y la fluidez de los resúmenes. Finalmente, a nivel de disciplina, encontramos que los académicos en Ciencias de la Computación mostraron cambios más pronunciados en el estilo de escritura, mientras que los cambios en Matemáticas fueron mínimos." – Y solo en julio de 2025 se descubrió que varios investigadores habían comenzado a colar mensajes ocultos en sus artículos. En texto blanco o demasiado pequeño para el ojo humano, incitaron a las IA a revisarlos positivamente y no señalar fallas. La revisión por pares, donde los expertos científicos evalúan el trabajo de los demás, es una parte esencial del proceso científico. También es muy laborioso, y con más y más trabajos científicos publicados cada año, el sistema ha experimentado una gran presión y retrasos. Los grandes modelos lingüísticos (LLM), un tipo de inteligencia artificial capaz de procesar el lenguaje, se utilizan cada vez más como herramientas para ayudar a los humanos en la revisión por pares de diversas maneras. Sin embargo, existen algunos peligros asociados con esto: debido a que los LLM actuales carecen de comprensión de lectura "real", pueden manipularse fácilmente agregando mensajes ocultos al artículo que se evaluará, lo que lleva a la IA a producir una revisión positiva. ### Shogo S y Ryosuke E. 'Solo revisión positiva': los investigadores ocultan indicaciones de IA en los artículos. Nikkei Asia. 2025 [https://asia.nikkei.com/Business/Technology/Artificial-intelligence/Positive-review-only-Researchers-hide-AI-prompts-in-papers](https://asia.nikkei.com/Business/Technology/Artificial-intelligence/Positive-review-only-Researchers-hide-AI-prompts-in-papers) Cita: " Los trabajos de investigación de 14 instituciones académicas en ocho países, incluidos Japón, Corea del Sur y China, contenían indicaciones ocultas que dirigían a las herramientas de inteligencia artificial para darles buenas críticas, según Nikkei. Nikkei analizó los preprints en inglés, manuscritos que aún no se han sometido a una revisión formal por pares, en la plataforma de investigación académica arXiv. Descubrió tales indicaciones en 17 artículos, cuyos autores principales están afiliados a 14 instituciones, incluida la Universidad de Waseda de Japón, KAIST de Corea del Sur, la Universidad de Pekín de China y la Universidad Nacional de Singapur, así como la Universidad de Washington y la Universidad de Columbia en los EE. UU. La mayoría de los artículos involucran el campo de la informática." ### Gibney E. Los científicos ocultan mensajes en los documentos para jugar con la revisión por pares de la IA. Noticias de la naturaleza. 2025 [https://www.nature.com/articles/d41586-025-02172-y](https://www.nature.com/articles/d41586-025-02172-y) Cita: " Los investigadores han estado introduciendo mensajes secretos en sus documentos en un esfuerzo por engañar a las herramientas de inteligencia artificial (IA) para que les den un informe positivo de revisión por pares. La revista de noticias Nikkei Asia, con sede en Tokio, informó la semana pasada sobre la práctica, que se había discutido previamente en las redes sociales. Nature ha encontrado de forma independiente 18 estudios de preimpresión que contienen tales mensajes ocultos, que generalmente se incluyen como texto blanco y, a veces, en una fuente extremadamente pequeña que sería invisible para un humano, pero que podría recogerse como una instrucción para un revisor de IA. Los autores de los estudios que contienen tales mensajes dan afiliaciones en 44 instituciones en 11 países, en América del Norte, Europa, Asia y Oceanía. Todos los ejemplos encontrados hasta ahora están en campos relacionados con la informática." ### Ye, R. et al. ¿Ya llegamos? Revelar los riesgos de utilizar grandes modelos de lenguaje en la revisión académica por pares. arXiv. 2025 [https://arxiv.org/abs/2412.01708](https://arxiv.org/abs/2412.01708) Cita: " La revisión académica por pares es una piedra angular del avance científico, pero el sistema está bajo presión debido al aumento de las presentaciones de manuscritos y la naturaleza laboriosa del proceso. Los avances recientes en los grandes modelos de lenguaje (LLM) han llevado a su integración en la revisión por pares, con resultados prometedores como superposiciones sustanciales entre las revisiones LLM y las generadas por humanos. Sin embargo, la adopción sin control de LLM plantea riesgos significativos para la integridad del sistema de revisión por pares. En este estudio, analizamos exhaustivamente las vulnerabilidades de las revisiones generadas por LLM centrándonos en la manipulación y las fallas inherentes. Nuestros experimentos muestran que inyectar contenido deliberado encubierto en los manuscritos permite a los autores manipular explícitamente las revisiones de LLM, lo que lleva a calificaciones infladas y una alineación reducida con las revisiones humanas. En una simulación, encontramos que manipular el 5% de las reseñas podría hacer que el 12% de los artículos pierdan su posición en el ranking del 30% superior. La manipulación implícita, donde los autores destacan estratégicamente las limitaciones menores en sus artículos, demuestra aún más la susceptibilidad de los LLM en comparación con los revisores humanos, con una consistencia 4,5 veces mayor con las limitaciones reveladas. Además, los LLM exhiben fallas inherentes, como la posibilidad de asignar calificaciones más altas a los artículos incompletos en comparación con los artículos completos y favorecer a los autores conocidos en el proceso de revisión simple ciego. Estos hallazgos resaltan los riesgos de una dependencia excesiva de los LLM en la revisión por pares, lo que subraya que aún no estamos listos para una adopción generalizada y enfatiza la necesidad de salvaguardas sólidas." – Podría hacernos más tontos, menos informados, nuestra capacidad de atención aún peor, aumentar las divisiones políticas y hacernos descuidar la interacción humana real. La información errónea / desinformación en línea, el acortamiento de la capacidad de atención, el aumento de las divisiones políticas y la menor interacción humana en la vida real son desarrollos sociales que preceden durante mucho tiempo al uso generalizado de la inteligencia artificial. Sin embargo, es probable que el uso de IA generativa acelere o mejore estos desarrollos debido a su capacidad para producir contenido de baja calidad en masa de forma semiautónoma. También existe el peligro de que la IA se entrene con conjuntos de datos cada vez peores con el tiempo a medida que Internet se llena de más contenido de baja calidad, lo que exacerba aún más el problema. Sin embargo, es importante señalar que estas predicciones y vínculos causales hipotéticos, incluidos los que se hacen en este video, se basan en gran medida en discusiones y comentarios de varios medios de comunicación y expertos de la industria, no en estudios de investigación científica o discurso académico. ### NewsGuard. Seguimiento de la desinformación habilitada por la IA: 1.271 sitios web de "noticias generadas por IA poco fiables" (y contando), además de las principales narrativas falsas generadas por las herramientas de inteligencia artificial. Consultado en julio de 2025 [https://www.newsguardtech.com/special-reports/ai-tracking-center/](https://www.newsguardtech.com/special-reports/ai-tracking-center/) Cita: " Hasta la fecha, el equipo de NewsGuard ha identificado 1.271 sitios web de noticias e información generados por IA poco confiables que abarcan 16 idiomas: árabe, chino, checo, holandés, inglés, francés, alemán, indonesio, italiano, coreano, portugués, ruso, español, tagalo, tailandés y turco." ### Shumailov, I., Shumaylov, Z., Zhao, Y. et al. Los modelos de IA colapsan cuando se entrenan con datos generados recursivamente. Naturaleza. 2024 [https://doi.org/10.1038/s41586-024-07566-y](https://doi.org/10.1038/s41586-024-07566-y) Cita: " Nuestra evaluación sugiere una 'ventaja de ser el primero' cuando se trata de modelos de entrenamiento como LLM. En nuestro trabajo, demostramos que el entrenamiento en muestras de otro modelo generativo puede inducir un cambio de distribución que, con el tiempo, provoca el colapso del modelo. Esto, a su vez, hace que el modelo perciba erróneamente la tarea de aprendizaje subyacente. Para mantener el aprendizaje durante un largo período de tiempo, debemos asegurarnos de que se conserve el acceso a la fuente de datos original y que los datos adicionales no generados por los LLM permanezcan disponibles a lo largo del tiempo. La necesidad de distinguir los datos generados por los LLM de otros datos plantea preguntas sobre la procedencia del contenido que se rastrea desde Internet: no está claro cómo se puede rastrear el contenido generado por los LLM a escala. Una opción es la coordinación de toda la comunidad para garantizar que las diferentes partes involucradas en la creación y el despliegue de LLM compartan la información necesaria para resolver cuestiones de procedencia. De lo contrario, puede ser cada vez más difícil entrenar versiones más nuevas de LLM sin acceso a datos que se rastrearon desde Internet antes de la adopción masiva de la tecnología o acceso directo a datos generados por humanos a escala." ### Spitzer P, Holstein J, Morrison K, et al. No se deje engañar: el efecto de la desinformación de las explicaciones en la colaboración entre humanos e IA. arXiv (2025) [https://doi.org/10.48550/arXiv.2409.12809](https://doi.org/10.48550/arXiv.2409.12809) Cita: " En varias aplicaciones, los humanos utilizan cada vez más sistemas de inteligencia artificial (IA) de caja negra sin comprender el razonamiento de estos sistemas. Para contrarrestar esta opacidad, los métodos de IA explicable (XAI) prometen una mayor transparencia e interpretabilidad. Si bien estudios recientes han explorado cómo XAI afecta la colaboración entre humanos e IA, pocos han examinado las posibles trampas causadas por explicaciones incorrectas. Las implicaciones para los humanos pueden ser de gran alcance, pero no se han explorado ampliamente. Para investigar esto, realizamos un estudio (n = 160) sobre la toma de decisiones asistida por IA en el que los humanos fueron apoyados por XAI. Nuestros hallazgos revelan un efecto de desinformación cuando las explicaciones incorrectas acompañan a los consejos correctos de IA con implicaciones posteriores a la colaboración. Este efecto hace que los humanos infieran estrategias de razonamiento defectuosas, lo que dificulta la ejecución de tareas y demuestra un conocimiento procedimental deteriorado. Además, las explicaciones incorrectas comprometen el rendimiento del equipo humano-IA durante la colaboración. Con nuestro trabajo, contribuimos a HCI al proporcionar evidencia empírica de las consecuencias negativas de las explicaciones incorrectas en los humanos después de la colaboración y al esbozar pautas para los diseñadores de IA." – ¿Cómo usaremos la IA? Como la herramienta de alineación en Adobe Illustrator. Si tienes un montón de cajas y quieres que las alineen, puedes hacerlo manualmente, una por una. O simplemente puede seleccionarlos, hacer clic en "alinear" y tenerlos perfectamente alineados en un instante. Es lo mismo con las herramientas de programación de IA para animación o usándolas como una alternativa más rápida de Google. La IA es una herramienta útil, pero la creatividad y la integridad siguen siendo nuestras. Hay muchas herramientas de software útiles que permiten a los humanos usar su propia creatividad, solo que un poco más eficientemente. La herramienta de alineación es solo nuestro ejemplo favorito personal. ### Adobe Ayuda. Alinear y distribuir objetos. Consultado en julio de 2025 [https://helpx.adobe.com/illustrator/using/moving-aligning-distributing-objects.html](https://helpx.adobe.com/illustrator/using/moving-aligning-distributing-objects.html) Un factor clave en el desarrollo de "AI Slop" es la falta de supervisión. Ya sea intencionalmente (para ahorrar dinero o para engañar) o no, si la IA generativa se pone en una tarea y los resultados no se verifican para verificar la calidad y los hechos, el contenido de baja calidad es el resultado típico. Pero la buena noticia es que podemos supervisarlo y verificar/cambiar/editar los resultados antes de compartirlos con el mundo. Y luego la calidad de salida se puede mejorar mucho, convirtiendo un generador de basura de IA en una herramienta increíble para los humanos.