Si googleas “Orca” o “Emily Portman”, los resultados de tu búsqueda serán la biografía completa de la cantante y compositora de folk inglesa, acompañada de una larga de imágenes del mamífero marino. Pero en algún punto, podías encontrar un álbum titulado Orca, como el último lanzamiento de Emily Portman, disponible en todas las plataformas en línea, como Spotify, iTunes, YouTube, etc. El problema era: Portman no había lanzado ningún álbum nuevo.
El boom de la música generada por IA ha encontrado forma en la actualidad sin casi ningún problema. De hecho, si vas a Spotify y buscas “The Velvet Sundown” te saldrá una banda, que a simple vista luce y se escucha completamente normal e incluso cuenta con más de 1 millón de reproducciones, pero que es en realidad una banda generada completamente con IA.
Este fenómeno no solo se limita a nombres ficticios, también hay proyectos generados con IA que imitan el sonido e imagen de superestrellas, de músicos fallecidos y, ahora, utilizando el nombre de artistas ya establecidos en la industria, tal como el caso de Emily Portman. Sin embargo, no es el primer caso ni el último.
Cada día se suben casi 100.000 canciones en los servicios de streaming, sin algún tipo de filtro o proceso suficientemente efectivo para detectar algún material como sospechoso. En algunos casos, piden al cargador que envíe los datos del artista, y si la información es incorrecta, tanto el o la artista o su sello discográfico pueden presentar una queja y lograr que se elimine el contenido. Emily declaró que al detectar que había sido víctima de este fenómeno, realizó este proceso y rápidamente las plataformas eliminaron el contenido, pero con Spotify, la plataforma tardó aproximadamente 3 semanas y, hasta la fecha, no ha logrado recuperar el control de su perfil de artista en la plataforma.
¿Pero cuál es el motivo detrás de estos movimientos? ¿Dinero? En la mayoría de los casos, sí. Por ejemplo, en Estados Unidos, se dio a conocer el caso de Michael Smith, un productor musical de Carolina del Norte que estafó más de 10 millones de dólares en regalías empleando bots y canciones creadas con IA en plataformas como Spotify, Amazon Music y YouTube. En Dinamarca también se detectó un fraude similar, aunque la identidad del responsable nunca se hizo pública, y en España se han registrado casos relacionados con el uso de IA para inflar reproducciones y obtener ganancias ilícitas. Pero, según Portman, ninguna canción de Orca tuvo más de 2000 reproducciones en Spotify, por lo que los ingresos no habrían excedido los 6 dólares por pista.
Entonces, ¿quién es el verdadero enemigo aquí? ¿Cuáles son las verdaderas intenciones detrás? ¿De qué forma las empresas pueden proteger a sus artistas? Surgen más preguntas que soluciones en una era donde se sigue priorizando la expansión de herramientas de IA generativa por encima de la regulación. Es claro que plataformas como Spotify y más, necesitan garantizar autenticidad y confianza a sus usuarios, asegurando que la música que escuchamos sea realmente legítima, además de asumir un papel más proactivo para prevenir más fraudes dentro de sus plataformas.




