A linha tênue entre música e máquina

O Spotify quer que as pessoas saibam quando uma música nasceu de um algoritmo.

A empresa sueca anunciou esta semana um conjunto de medidas destinadas a identificar e rotular músicas criadas com inteligência artificial (IA), em uma tentativa de trazer ordem a um terreno que está avançando mais rápido do que sua própria legislação.

Não é apenas uma decisão técnica, mas também política, estética e comercial.

A música não é mais apenas humana. Mas quem deve dizer isso e como?

Por: Gabriel E. Levy B.

Na história da música, a mídia sempre moldou a arte: da partitura ao vinil, da fita ao algoritmo.

No entanto, raramente como hoje essa mediação se tornou tão radical.

O advento da inteligência artificial generativa, capaz de criar vozes, melodias e letras de forma autônoma ou semidirigida, interrompeu as regras do jogo.

Até alguns anos atrás, o uso de IA na música era um experimento de laboratório.

Compositores como David Cope, que nos anos 90 desenvolveu o EMI (Experiments in Musical Intelligence), já levantavam a possibilidade perturbadora de que uma máquina pudesse imitar o estilo de Bach ou Mozart com precisão cirúrgica.

Mas era um exercício de nicho, quase filosófico.

A interrupção ocorreu quando plataformas de streaming como o Spotify começaram a hospedar milhares de faixas criadas por IA sem rótulos claros. E, mais importante, sem que o ouvinte seja capaz de distinguir facilmente se o que estava ouvindo vinha de uma mente humana ou de uma rede neural.

Este é o contexto do anúncio do Spotify.

A implementação do padrão DDEX (Digital Data Exchange), uma iniciativa colaborativa da indústria para padronizar os metadados de obras musicais, permitirá que gravadoras e distribuidores relatem se houve uso de IA no processo criativo.

Uma medida que, embora técnica, tem profundas implicações simbólicas: não se trata mais apenas do que se ouve, mas de quem (ou o quê) a compôs.

Uma ferramenta, não um artista

Para o Spotify, o desafio não é pequeno.

Em sua busca constante para oferecer mais conteúdo, reter assinantes e reduzir os custos de licenciamento, a IA se tornou uma aliada tentadora.

De acordo com um relatório da MIDiA Research publicado em 2024, aproximadamente 12% das novas músicas carregadas em plataformas digitais naquele ano incluíam algum componente gerado por IA.

Mas essa automação também gerou distorções: milhões de faixas projetadas para otimizar algoritmos de recomendação, músicas de 30 segundos para inflar números e, o mais controverso, imitações vocais de artistas reais sem seu consentimento.

Diante desse cenário, o Spotify propôs uma tripla frente de regulamentação. Primeiro, proíba o roubo de identidade vocal por meio de deepfakes, a menos que expressamente autorizado pelo artista original.

Uma medida fundamental, especialmente depois de casos como o FakeDrake, em que uma música viral imitou a voz do rapper sem qualquer autorização.

Em segundo lugar, para combater o “spam de música”: uploads massivos, duplicações, conteúdo irrelevante que saturam a plataforma.

Nos últimos doze meses, a empresa removeu mais de 75 milhões de faixas nesta categoria.

E terceiro, estabelecer um sistema de rotulagem transparente, começando com os rótulos e distribuidores que já adotaram o DDEX como padrão de relatório.

O que está em jogo não é apenas a integridade da plataforma, mas também a relação entre ouvinte e música.

Porque se tudo soa “bem”, mas nada diz nada, onde está a arte?

O algoritmo também quer cantar

Um dos casos que marcaram um antes e um depois foi o de The Velvet Sundown. Em junho passado, essa banda totalmente gerada por IA atingiu mais de três milhões de streams no Spotify.

Só mais tarde se soube que nenhuma das vozes, instrumentos ou letras vinha de humanos. Nem mesmo os nomes eram reais.

O impacto foi imediato.

O público se sentiu, em parte, enganado. Foi música, performance, experimento ou uma campanha de marketing secreta?

O fenômeno expôs o dilema central: é válido que uma música gerada por IA concorra em igualdade de condições com uma feita por humanos? É o suficiente para rotulá-lo? E se o público preferir o som hiperproduzido de uma rede neural à imperfeição de uma voz humana?

De acordo com o estudioso Anahid Kassabian, autor de Escuta Ubíqua: Afeto, Atenção e Subjetividade Distribuída, a música não é mais apenas uma forma de expressão, mas uma presença onipresente moldada por contextos tecnológicos.

Nesse novo ecossistema, a autoria é diluída, a experiência é fragmentada e o ouvinte se torna um usuário.

Para o filósofo Bernard Stiegler, a automação da cultura acarreta o risco de perder a individuação simbólica, ou seja, aquela que permite que as pessoas se reconheçam em uma obra.

Se tudo se torna generável, replicável, previsível, o que é corroído não é a qualidade técnica, mas a capacidade de significância.

O Spotify está tentando, com essas novas regras, evitar esse desvio.

Mas o risco permanece: a música gerada por IA não apenas imita estilos, mas também simula emoções. E em uma era em que as emoções são capitais, esse simulacro pode se tornar hegemonia.

Quem compôs essa música?

Além do caso de The Velvet Sundown, outros episódios recentes reforçam a urgência de um marco regulatório. Em 2023, a música Heart on My Sleeve, que usava imitações dos vocais de Drake e The Weeknd, se tornou viral no TikTok antes de ser removida devido a problemas de direitos autorais.

Seu autor, um usuário anônimo chamado Ghostwriter, argumentou que o fez como uma “crítica ao estado da música comercial”.

Mas o impacto foi tal que até se discutiu se ela deveria ser indicada ao Grammy.

Paralelamente, plataformas como a Deezer começaram a marcar sistematicamente músicas geradas por IA. E o YouTube, com sua  ferramenta Dream Track, permite que alguns criadores usem vozes de artistas licenciados. Cada ator do ecossistema se posiciona, revelando a ausência de uma política global clara sobre o assunto.

Mesmo artistas conhecidos estão começando a reagir.

A cantora Grimes ofereceu sua voz como código aberto para qualquer pessoa usar com IA, desde que receba uma parte da receita.

Um modelo que mistura ética, economia e experimentação, e que pode inspirar novas formas de criação colaborativa homem-máquina.

Mas o caminho ainda é incerto.

Como alerta o musicólogo Eduardo Viñuela, “o verdadeiro problema não é a existência de música gerada por IA, mas a falta de uma estrutura que nos permita entender seu status estético, legal e emocional dentro do ecossistema musical”. E isso requer mais do que apenas rótulos.

Em conclusão, a decisão do Spotify marca um ponto de virada na relação entre tecnologia, arte e plataformas. A música criada por inteligência artificial já é uma realidade, mas ainda carece de um arcabouço ético, legal e simbólico que a situe claramente. A rotulagem não é suficiente, mas é um primeiro passo. Porque em um mundo onde até a emoção pode ser codificada, o desafio não é que as máquinas componham, mas que não esqueçamos por que, para quê e para quem é composto.

Referências:

  1. Inglês com fio. (2025, 26 de setembro). O Spotify reforça suas políticas para regular o conteúdo gerado por IA. https://es.wired.com/articulos/spotify-endurece-sus-politicas-para-regular-contenidos-generados-con-ia
  2. (2025, 25 de setembro). O Spotify está lidando com uma avalanche de músicas feitas com IA, por isso decidiu reagir para estabelecer limites. https://www.xataka.com/robotica-e-ia/spotify-esta-lidiando-avalancha-canciones-hechas-ia-asi-que-ha-decidido-reaccionar-para-marcar-limites
  3. Newsweek Inglês. (2025, 24 de setembro). Spotify enfrenta IA na música: novas medidas buscam proteger artistas e ouvintes. https://newsweekespanol.com/entretenimiento/spotify-se-enfrenta-a-la-ia-en-la-musica-nuevas-medidas-buscan-proteger-a-artistas-y-oyentes