# Reflexiones sobre la generación de música con IA ![[Reflexiones-sobre-musica-generada-por-IA.webp]] ## De dónde venimos Ya había jugado con música generada por IA hace un año o así. El otro día retomé el tema en el desayuno. Tenía ganas de trabajar concentrado, y la curiosidad de ver qué pasaba si en vez de tirar de mi playlist instrumental de siempre, le pedía a una IA que me compusiera una nueva. Abro Suno, escribo cuatro líneas describiendo “mi sonido” para trabajar y, en menos de media hora de pruebas, tengo una playlist *stoner-industrial-instrumental* que no existía el día anterior y que, sin embargo, encaja bien con lo que yo buscaba. Escucho muchísima música. Pero no soy músico. No soy capaz de tocar bien ningún instrumento. No sé producir a nivel serio. Pero de repente estoy escuchando algo que “suena a mí”. Y parece que lo he hecho yo. > [!question] Pregunta > ¿Qué pasa cuando ***crear música*** deja de ser un privilegio de músicos y se convierte en algo casi tan sencillo como escribir un mensaje? > *Nota*: no es mi intención discutir sobre si un músico con una vida dedicada a la música que compone canciones con todo su conocimiento y experiencia es igual o mejor o peor o tiene el mismo arte que una persona común sin conocimientos de música creando temas con IA. > > Pero es un hecho que objetivamente el ~98% de la población no distingue entre el resultado del primero y del segundo. Ese es el ángulo que me interesa. El cambio que eso supone. Total que me he pasado unos días experimentando con Suno v5, investigando y reflexionando sobre cómo impacta esto. Este artículo es el de reflexiones, pero antes teníamos: - [El primer post con la playlist y el prompt utilizado](7-Suno-prompt-y-playlist.md), que permite personalización. - [La investigación que me hizo Máquina sobre el estado del arte de la generación de música con IA en 2025](8-Musica-generada-por-IA-2025.md), que incluye bastante contenido interesante. Vamos a mirarlo con calma y desde varios puntos de vista. Te diría que para leerlo, vayas a la página de exploración de Suno, le das al dado 🎲 (búsqueda de temas aleatorios) hasta que salga algo de un género que te guste, y lo uses como banda sonora para este post. Te dejo el enlace en la siguiente imagen [![[Suno-explore.webp|300]]](https://suno.com/explore) --- ## Qué está pasando de verdad con la música creada por IA Antes de ponernos filosóficos, un mínimo de contexto técnico. En 2025 ya tenemos modelos como Suno v5 capaces de generar canciones completas con calidad casi de estudio: minutos de duración, mezcla cuidada, instrumentos y voces realistas en varios idiomas. Entras un texto tipo *“balada pop emotiva con voz femenina en español”* y te devuelve tema completo con letra, acompañamiento y estructura razonable. Después de probar bien unas horas y pasearme por Reddit a ver qué opina la gente, esta es la conclusión: > [!info] Un niño de ocho años puede generar sin dificultad música que, en términos técnicos y objetivos, alcanza el nivel de la producida por un profesional dedicado. Y no se quedan en creación de música, puedes saltar a la **producción**: exportas pistas por separado (batería, bajo, guitarras, voz), las llevas a tu DAW y produces como si un grupo entero hubiera grabado para ti. Esto ya no es *“modelos de lenguaje que generan patrones de música”*. Es un motor serio de composición y producción al alcance de cualquiera con conexión a internet. > *Nota*: he leído a algún profesional de la producción de música comentando que la calidad no es suficiente como para producir música de estudio. Da igual, lo importante es que el año pasado era algo muy rudimentario y hace 3 o 4 años era ciencia ficción pensar en este nivel de calidad y facilidad. Si no es este año, será el año que viene. Al mismo tiempo, la industria está aprendiendo a usarlo. Aproximadamente una cuarta parte de los productores ya integra herramientas de IA en su flujo diario como co-compositor o asistente de arreglos: generan ideas de batería, líneas de bajo, variaciones armónicas, etc., ahorrando horas de trabajo rutinario. Mientras tanto, gente corriente de fuera del sector como tú y yo estamos jugando a hacer playlists propias **“con sabor a nosotros”**. Lo cual me parece mucho más disruptivo de lo que parece a primera vista. Con este contexto en la cabeza, vamos a mirar el fenómeno desde varios ángulos. --- ## Puntos de vista ### Desde el punto de vista de cómo se estructura el proceso creativo Si miras la situación como si fueras arquitecto de procesos, se aprecia que cambia la **forma del proceso creativo**. Hasta ahora, el flujo para un músico era más o menos: > [!example] Flujo de trabajo para un músico > 1. **Años de estudios y práctica con un instrumento, teoría musical, producción, mezcla…** Esto solo se hace una vez, obviamente. > 2. **Idea o emoción** (“quiero un tema denso, lento, rotundo que evoque...”) > 3. **Trabajo componiendo, produciendo y grabando**. Previsiblemente, bastantes horas. > 4. **Canción grabada**. La IA se carga de un plumazo el punto 1 y resuelve brutalmente el 3, hasta el punto de que desaparece la necesidad del músico. Cualquiera puede simplemente: > [!tip] Flujo de trabajo para **cualquier persona** común > 1. **Idea o emoción** ("quiero...") > 2. **Conversación con la IA**, minutos charlando y/o *prompteando*. > 3. **Canción hecha y lista para escuchar** en 15 segundos Es decir, se pasa de “años de técnica” a “iterar prompts durante un rato”. En la práctica: - Antes: aprendizaje --> idea --> técnica musical --> resultado. - Ahora: idea → resultado (con la técnica empaquetada dentro de la IA y sin necesidad de aprendizaje musical). Eso quiere decir varias cosas: - La música deja de ser un arte escaso (poca gente puede producir con calidad) para convertirse en un **flujo potencialmente ilimitado**. - El estilo ya no viene solo de la mano y la cabeza del músico, sino de cómo combinas tu intención y habilidad para expresarte con las capacidades del modelo. - La distancia entre imaginar un sonido y escucharlo se reduce a segundos. Lo que me parece interesante es que la IA pasa a ser una especie de **interfaz** que puede conectar tu estado mental con una melodía casi inmediato. Diría que cuando la creación de música de democratiza tan drásticamente, seguro que pasan cosas interesantes. --- ### Desde el punto de vista crítico: la verdad incómoda Los que me conocéis sabéis que me gustan las verdades incómodas. Si miramos con lupa crítica, aparecen varias cosas que solemos esquivar. #### Primera incomodidad Repetimos mucho que “la IA musical es solo una herramienta más”. Y sí, técnicamente lo es. Pero funcionalmente puede convertirse en algo mucho más profundo: la **banda sonora personalizada de tu vida**, generada al vuelo según tu contexto, tu calendario, tu pulso o tu estado de ánimo. No es lo mismo elegir una playlist que ya existe que decirle a un sistema: *"tengo que estudiar toda la tarde, dame un par de horas de música lo-fi que me ayude a concentrarme"* ([aquí un ejemplo con, literalmente, esa frase como prompt](https://suno.com/s/Hj5nOjJbpSCb1mZZ)), o mejor, *“tengo reunión tensa en diez minutos, hazme una canción que me centre sin subirme la ansiedad”* ([y aquí la tenéis](https://suno.com/s/JSpUWW73qmPfrw2T)). #### Segunda incomodidad La frase *“a esta música le falta alma”* suena muy bien en tertulia, pero conviene preguntarse qué llamamos exactamente “alma” cuando hablamos de música. Muchas veces lo que percibimos como “alma” es la mezcla de fricción, limitación y biografía del músico: años de ensayo, callos, fallos, cambio de estilo, crisis personales. Si quitas la fricción y te quedas solo con un resultado técnicamente impecable, ¿cambia tu forma de valorar la música? Probablemente sí. No porque la IA tenga alma, sino porque te obliga a preguntarte qué estabas valorando en realidad: ¿el resultado o la historia personal que hay por detrás? Muy bien, muy humano y muy profundo. Pero si fuera verdad que la música tiene que tener "alma" para gustarnos o emocionarnos, no nos gustaría la música de artistas desconocidos o en otros idiomas. Y no es así. A veces entras en un local, escuchas una canción que no habías oído en tu vida, y que ni siquiera sabes de qué va, y te encanta. Sin alma ni nada. Sólo la música. #### Tercera incomodidad Nos agarramos al *“los músicos no van a desaparecer”* como frase tranquilizadora. Y seguramente es cierto. Lo que no nos gusta tanto mirar es que **el oficio que llamamos “músico” se está moviendo de sitio**. Pasar de ser intérprete/compositor tradicional a ser director de estética sonora, diseñador de sistemas generativos o arquitecto de experiencias musicales es un cambio de profesión, no solo de herramienta. Y no todo el mundo va a querer hacer esa transición. > [!tip] Nota al pie: **el gramófono** > Existe una historieta que se repite mucho cuando hablamos de tecnología y empleo. > Es la del fonógrafo y el gramófono. > > A finales del XIX, cuando aparecieron las primeras grabaciones, muchos músicos y empresarios alertaron del desastre: la música en vivo se devaluaría, los “artistas de verdad” serían sustituidos por voces enlatadas, y llegarían despidos masivos. Hubo resistencias, boicots, rechazo a grabar y todo tipo de pleitos por derechos. > > El cuento suele terminar con un _final feliz_: los músicos no desaparecieron, sino que se adaptaron. Nacieron profesiones nuevas, aparecieron los productores, se inventó la industria discográfica y los artistas ampliaron su alcance global. > “¿Ves? La tecnología transforma, pero no destruye”. > > En mi opinión, esto es mentira. O, siendo generosos, una verdad a medias. Una mentira reconfortante. > > Porque lo que no se cuenta es la otra mitad: **el gramófono se cargó de un plumazo a un colectivo entero**. > > El pianista de bar masivo -el músico de acompañamiento que amenizaba cafés, teatros pequeños o restaurantes- desapareció casi de un día para otro. Sustituido por un disco barato, reproducible y sin descansos. Nadie lo “recicló” en productor musical. Simplemente dejó de ser necesario. > Por no hablar de los fabricantes de instrumentos musicales. > > Lo mismo pasó con la revolución del automóvil. > La historia amable dice que el cochero se convirtió en conductor y el cuidador de caballos en mecánico. Pero se omite un detalle: **la población de caballos cayó entre un 80% y un 90%** en pocas décadas. El ser vivo que realizaba la función anterior no se adaptó. No tuvo oportunidad. Fue reemplazado. Y punto. > > Las revoluciones tecnológicas no barren a todos por igual. Pero todas barren. Algunos evolucionan. Otros desaparecen. El relato de *“tranquilos, siempre se crean nuevos empleos”* funciona muy bien para evitar el miedo, pero no para entender la realidad. En realidad con la IA musical el impacto es distinto. Creo que es menos disruptivo en cuanto a cantidad de empleos afectados y mucho más en cuanto a impacto cultural masivo. --- ### Desde el punto de vista psicológico: qué pasa en la cabeza de la gente Dejemos a la industria un momento y vayamos a la psicología básica. Hay tres efectos que van a jugar fuerte aquí: #### 1. Efecto IKEA Valoras más lo que sientes que has construido, aunque tu aportación sea mínima. En la música generada pasa lo mismo: puedes haber escrito dos líneas de prompt, pero tu cerebro registra la canción como “mía”. No es lo mismo que darle al play de una lista anónima. #### 2. Sesgo de fluidez Nos gusta lo que nos resulta fácil de procesar. Si generar música personalizada es cuestión de unos clics, tu cerebro va a normalizarlo rápido. Igual que hoy nadie se asusta porque las fotos lleven filtros, en pocos años tampoco se verá raro que gran parte de la música que te acompaña la haya creado una máquina. #### 3. Identidad musical Durante años hemos usado la frase *“dime qué escuchas y te diré quién eres”*. Playlists, discos favoritos, grupos de referencia… forman parte de la narrativa personal. ¿Qué pasa cuando puedes fabricar, en cuestión de minutos, la música tuya, que te define? La frontera entre “lo que escucho” y “lo que genero” se diluye. Reacciones que se me ocurren: - **Gente que se sienta liberada**: por fin puede crear sin pasar por la humillación de comparar su técnica con la de profesionales. - **Gente que se sienta devaluada**: “si cualquiera puede hacer esto con IA, ¿qué queda de mi valor como creador?”. - **Gente que lo vea como un nuevo instrumento**: la IA como extensión de su estudio, no como amenaza. La clave aquí es que la IA no solo cambia cómo se produce el sonido. **Cambia nuestra relación con la música**. --- ### Desde el punto de vista de sistemas complejos: el ecosistema La música generada por IA no vive en el vacío. Entra en un sistema que ya es bastante complicado: industria musical, plataformas, creadores independientes, marcas, usuarios, economía de la atención. Si lo miras como sistema, ves varios bucles interesantes. #### Bucle de refuerzo - Más gente genera música con IA. - Eso produce más datos sobre qué encaja, qué engancha, qué combinaciones funcionan. - Los modelos mejoran y se afinan. - Más gente siente que “la música que hace la IA me entiende mejor que muchas playlists”. - Vuelves al principio. #### Bucle de equilibrio - Cuanta más música generada, más saturación. - Cuanta más saturación, más valor tiene algo que destaque por narrativa, contexto o rareza humana. - Una parte del público empieza a buscar *“cosas que no pueda hacer un modelo genérico”*: directos, errores, historias, identidad. - Eso mantiene cierto espacio para la música humana como refugio simbólico. #### Puntos de fricción - La música funcional (publicidad, vídeos, fondos de apps, jingles rápidos) es carne de IA. Es rápida, barata y legalmente cómoda si se hace bien. - Plataformas de streaming están ante un dilema: ¿solo catálogo o también generación propia controlada? Es cuestión de tiempo que veamos botones del tipo “genérame música para…” integrados en Spotify, Apple Music y compañía. - La cultura compartida puede fragmentarse en mil micro-burbujas sonoras personales. Esta me parece especialmente interesante: los grandes géneros dejan de tener sentido al convertirse en algo personalizado para cada uno. Más de esto más adelante en las 7 ideas (en la tercera) Más que preguntar si la música generada con IA es buena, habría que preguntarse: > ¿Qué tipo de sistema cultural queda cuando casi cualquiera puede moldear el sonido que le rodea sin dificultad? --- ## Siete ideas interesantes que se derivan de todo esto ![[Reflexiones-sobre-musica-generada-por-IA-3.webp]] A partir de estos puntos de vista, salen siete ideas que no son obvias a primera vista y que dan para pensar. ### 1. La música como extensión en tiempo real de tu cabeza Hasta ahora, la música ha sido algo que eliges. Con IA puede pasar a ser algo **diseñas**, y al menos **creas** al vuelo. No se trata solo de buscar “música para concentrarse”, sino de ajustar con bastante precisión: - Intensidad. - Texturas. - Ritmo. - Duración exacta según tu bloque de trabajo. Tu entorno sonoro se convierte en un panel de control emocional. Lo usas para: - Entrar en flow. - Bajar revoluciones después de una llamada complicada. - Prepararte para una conversación difícil. Esto tiene una parte muy potente: te da herramientas para **regular mejor tu energía y tu foco**. Y tiene una parte peligrosa: corres el riesgo de usar la música como anestesia permanente. En lugar de escuchar lo que te pasa, generas un tema que tape el ruido interno. Todo esto ocurrirá. Lo bueno y lo malo. ### 2. La autoría como algo que se construye entre tú y la máquina Con la música de siempre, la autoría estaba más o menos clara: alguien componía, alguien interpretaba, alguien producía. ¿De quién es esa canción? Con la IA, la cosa se pone turbia: - Tú pones la idea base, referencias, lenguaje. - El modelo pone técnica, conocimiento de estilos, ejecución. - El tema final es resultado de esa combinación. Tu estilo como “no-músico” puede empezar a definirse por: - Cómo describes lo que quieres. - Qué iteraciones aceptas o descartas. - Qué decisiones tomas al combinar temas generados, remezclarlos, encadenarlos. Es decir, la **autoría se mueve de las manos del músico a la cabeza del oyente**. > [!tip] sobre la autoría > En realidad, diría que "depende del prompt". > > Si el prompt es una frase vaga, pues la autoría es de la IA, que lo ha hecho a partir de patrones aprendidos (¡cómo los humanos!) > > Si el prompt es complejo, detallado, parte de un proceso de "creación de ideas", entonces opino que la autoría es de la persona, al menos en parte, que ha usado la IA como una herramienta. > > Si la canción sale de una conversación rica con la IA, debatiendo, llegando a conclusiones, iterando, opinando, entonces diría que la autoría es ==compartida==. **Este punto es el que me parece interesantísimo.** ### 3. Microgéneros personales en vez de grandes escenas Durante décadas, hemos organizado la música en géneros y escenas: punk, techno, trap, flamenco, lo que quieras. Cada escena venía con estética, actitudes, historias. La IA abre la puerta a algo más raro: microgéneros personales. - Temas que mezclan stoner, industrial y post-rock a tu gusto. - Flamenco-drone-ambient para estudiar. - Variantes rarísimas que solo tienen sentido en tu combinación concreta de gustos. Mucho de eso no llegará a convertirse en escena pública; vivirá en tu casa, en tu código, en tus prompts. Eso no elimina la necesidad humana de pertenecer a algo compartido. Probablemente veremos: - Más fragmentación en la escucha privada. - Más valor en los espacios de experiencia colectiva: conciertos, festivales, jams, rituales donde el sonido se vive con otros cuerpos alrededor. Habrá una diferencia abismal entre la playlist hiperpersonalizada que tienes en tu dispositivo y el concierto o el local donde escuchas música con desconocidos va a crecer. ### 4. La composición funcional es el primer campo de batalla No toda la música tiene el mismo peso. No es lo mismo: - El tema que te marca la adolescencia. - Que la música neutra de fondo en un vídeo corporativo de tres minutos. En ese segundo plano, la IA encaja como un guante. Y ya se está usando: - Campañas de publicidad que generan decenas de canciones temáticas con IA en lugar de encargar jingles a un equipo creativo. - Vídeos, podcasts y contenidos de marca que usan música generada para no complicarse la vida con derechos. Aquí el impacto laboral es directo: - Menos encargos repetitivos para compositores que vivían de música de stock. - Más demanda para perfiles capaces de definir “qué sonido debe tener esta marca” y orquestar sistemas generativos coherentes con ella. Es decir: menos “te hago 20 pistas aisladas”, más “te diseño un lenguaje musical que luego la IA puede desplegar a lo ancho de tus campañas”. Y me imagino que el entregable de una agencia a un cliente puede no ser música, sino una colección completa de prompts. Interesante. ### 5. El valor se desplaza de producir a tener criterio Cuando cualquiera puede producir un tema decente en minutos, el valor deja de estar en el mero hecho de producir y se mueve a otros sitios: - Saber qué quieres que suene en cada contexto. - Distinguir lo que simplemente “suena bien” de lo que encaja con una identidad, un momento, un mensaje. - Construir narrativas alrededor de lo que eliges generar y publicar. Esto recuerda mucho a lo que ya pasó en fotografía: - La cámara dejó de ser el filtro; el ojo se convirtió en el filtro. - Ahora, con la música, el “ojo” se convierte en oído, criterio y dirección creativa. En términos de trabajo, esto implica: - Productores que dejan de vender “horas de estudio” y pasan a vender “visión sonora con IA en el equipo”. - Músicos que se posicionan más como creadores de universos que como ejecutores de notas. - Equipos de marketing que necesitan alguien que sepa hablar a la vez música, negocio y modelos generativos. ### 6. Conectar con música humana pasa a significar otra cosa Si una IA puede generarte en segundos una canción que encaja con tu estado, tus referencias y tu contexto, ¿por qué seguir buscando música hecha por otra persona? La respuesta, en mi opinión, va a ir por aquí: - La música generada te ofrece ajuste fino y contexto. - La música humana te ofrece relato, biografía y vínculo. No escuchas solo cómo suena un tema. Escuchas quién lo hace, de dónde viene, qué historia hay detrás, qué representa. Igual que en un mundo lleno de fotos buenas sigues valorando ciertas imágenes por quién las hizo y en qué circunstancias, en un mundo lleno de música generada seguirás valorando ciertas canciones humanas por lo que cuentan de la persona que está detrás. La música de IA no “mata” la música humana. Pero **la obliga a justificar de otra forma por qué merece tu atención**. ### 7. El espacio común se estrecha, el ecosistema se vuelve híbrido Por último, algo más sutil. Si cada persona puede tener su banda sonora generada a medida, la música como espacio común corre el riesgo de encogerse. Menos: - “¿Has escuchado el último disco de X?”. Más: - “Te paso mi configuración / mis prompts / mi modelo para generar este tipo de temas”. Al mismo tiempo, pueden nacer nuevas formas de compartir: - Gente intercambiando prompts en vez de cintas. - Comunidades montadas alrededor de “escuelas de generación”: formas de usar modelos para lograr ciertas estéticas. - Directos donde parte del espectáculo es ver al artista dirigiendo a la IA en tiempo real, con el público influyendo en lo que se genera. El resultado probable es un ecosistema híbrido: - Obras fijas, compuestas y grabadas de forma tradicional. - Flujos generativos en vivo, adaptados al contexto, donde la frontera entre autor y audiencia está más borrosa. Y ahí cada uno tendrá que decidir dónde quiere situarse. --- ## Tres escenarios para los próximos años ![[Reflexiones-sobre-musica-generada-por-IA-2.webp]] Con todo lo anterior, creo que hay al menos tres escenarios interesantes que merece la pena tener en mente. Nada de *"esto lo cambia todo, los músicos están acabado"*. Son extensiones razonables de cosas que ya están pasando. ### Escenario 1: la música como capa emocional continua En este escenario, la música generada por IA se integra tanto en el día a día que deja de vivirse como “música” en el sentido clásico. Es una **capa emocional del entorno**, como la luz o la temperatura. Ejemplos concretos: - Herramientas de productividad que te generan música adaptada a la tarea, a tu ritmo de escritura o a tu agenda. - Sistemas domésticos que cambian el ambiente sonoro según quién está en casa, la hora y el plan (comer, leer, dormir…). - Apps de salud mental que no tiran solo de playlists prefabricadas, sino de temas generados según tu historial, tu corazón y tu contexto. Qué ganamos: - Más control fino sobre el entorno emocional. - Mejor ajuste entre lo que haces y cómo suena lo de alrededor. - Posibilidad de diseñar experiencias sonoras muy cuidadas sin necesidad de ser músico. Qué podríamos perder: - Música convertida en “ruido de fondo optimizado”. Ojo a la palabra: **ruido**. - Pérdida de momentos de silencio y de fricción. Sin silencios no hay paz mental. - Dificultad para soportar sonidos que no hayas elegido tú. A vigilar: - Aparición de “copilots musicales” en herramientas mainstream. - Modelos de suscripción no a catálogos, sino a *“entornos sonoros”* según usos (trabajo, deporte, descanso). - Conversaciones crecientes sobre higiene sonora y saturación auditiva. ### Escenario 2: el músico como director estético y arquitecto de sistemas Aquí el foco está en el trabajo creativo. En cómo cambia. El músico ya no es solo quien compone e interpreta, sino quien: - Define la estética. - Diseña cómo la IA la despliega en distintos contextos. - Decide hasta dónde llega la máquina y dónde empieza él. Esto se traduce en cosas muy concretas: - Artistas que, además de discos, podrían vender “packs generativos” para que otros puedan crear temas en su estilo. - Estudios que montan sistemas completos para marcas: identidad sonora + reglas + IA que genera variaciones infinitas. - Conciertos donde el artista no solo toca, sino que juega con modelos en vivo, remezclando, regenerando y modulando en función del público. Qué ganamos: - Multiplicar el alcance de una visión artística sin que el artista tenga que producir cada minuto de audio a mano. - Nuevos modelos de negocio: licencias de sonido, no solo de canciones. - Espacio para que músicos se conviertan en auténticos directores creativos de experiencias. Qué podríamos perder: - Que algunos músicos se queden fuera por rechazo o falta de adaptación, no por falta de talento. - Confundir “jugar con la IA” con tener una visión musical clara (no es lo mismo). - Convertir parte del trabajo musical en “consultoría creativa” que no todo el mundo quiere hacer. No tengo claro si esto es bueno o malo. Señales a vigilar: - Escuelas de música que empiezan a enseñar composición + IA, no solo instrumento. - Sellos que firman no solo artistas, sino “catálogos de estilos” para explotarlos generativamente. - Plataformas que permiten seguir a personas por sus presets/prompts, no solo por sus temas publicados. ### Escenario 3: saturación generativa y refugio en lo humano En este último escenario, la abundancia se vuelve ruido. Hay tanta música generada, tan fácil de producir, que: - Todo suena correcto. - Nada es memorable. Si la música deja de ser memorable, vamos jodidos. La respuesta natural del sistema podría ser doble: 1. Parte del público se instala en esa música utilitaria del montón y no le da más vueltas. 2. Otra parte empieza a buscar lo contrario: experiencias donde la imperfección y la singularidad humana sean el valor. Eso puede llevar a: - Más conciertos pequeños y crudos. - Más proyectos que hagan bandera de “cero IA” como posicionamiento. Volvemos a la idea de la etiqueta *"100% humano"* como sello de calidad. - Más atención a artistas que no solo suenan bien, sino que cuentan algo incómodo o difícilmente replicable. Qué se ganaría: - Filtros más conscientes sobre qué música de verdad consideramos importante. - Espacios donde el fallo, la rareza y el riesgo se valoran. - Nuevas formas de directo donde la gracia está en que no se puede repetir igual. Qué se podría perder: - Que mucha gente viva la música solo como herramienta funcional y pierda relación con ella como arte. - Que la saturación vuelva cínico al sector: “da igual lo que hagamos, todo se perderá en el feed”. - Que los modelos se queden con una parte excesiva de la definición de “lo que suena bien” y arrinconen propuestas más ásperas. A vigilar: - Que empecemos a oír a menudo frases tipo “toda la música nueva suena igual”. - Auge de festivales, sellos y espacios que defienden explícitamente procesos humanos aunque sean más lentos. - Mayor interés por documentales, making-of y relatos sobre cómo se ha hecho un disco, no solo por el resultado. --- ## Y ahora qué hacemos con todo esto No hay una conclusión limpia aquí. Hay varias tensiones abiertas: - Entre lo que ganamos regulando nuestro entorno sonoro y lo que perdemos si todo se convierte en banda sonora diseñada. - Entre la democratización real de la creación musical y la posible devaluación de su percepción social. - Entre el potencial brutal para nuevos oficios creativos y el riesgo de dejar a mucha gente en la cuneta si no se adapta. La IA ya está componiendo, produciendo y sonando mejor de lo que esperábamos tan pronto. La cuestión interesante, para mí, es otra: > ¿Qué tipo de relación queremos tener con la música cuando dejar de ser solo oyente y empezar a ser diseñador de tu propio sonido es tan fácil como abrir una pestaña? --- Yo por mi parte, seguiré disfrutando de la música venga de donde venga. Este post se ha fraguado en varias sesiones entre investigar, debatir con Máquina, escribir y revisar. Casi siempre con música de fondo. A veces de The Hives (ahora mismo, de hecho), a veces de un par de prompts a la IA, a veces salida de la playlist de Descrubrimiento Semanal de Spotify, a veces salida de la playlist de trabajo concentrado de Suno.