
Image by Cristofer Maximilian, from Unsplash
Criadoras Exigem que Gigantes da Tecnologia Paguem por Dados de Treinamento de IA
Os governos estão permitindo que desenvolvedores de IA roubem conteúdo – tanto criativo quanto jornalístico – por medo de contrariar o setor de tecnologia e danificar investimentos, ouviu um comitê parlamentar do Reino Unido esta semana, conforme relatado inicialmente pelo The Register.
Com pressa? Aqui estão os fatos rápidos!
- Parlamentares do Reino Unido ouviram preocupações sobre a IA explorando conteúdo protegido por direitos autorais sem compensação.
- O compositor Max Richter alertou que a IA ameaça o sustento dos músicos e a originalidade.
- Editores encontraram 1.000 bots raspando dados de 3.000 sites de notícias para modelos de IA.
Apesar de uma figura da indústria de tecnologia insistir que o “pecado original” da mineração de texto e dados já ocorreu e que os criadores de conteúdo e legisladores deveriam seguir em frente, uma comissão conjunta de deputados ouviu de editores e um compositor irritados com a exploração descontrolada de material protegido por direitos autorais pela indústria da tecnologia.
O Comitê de Cultura, Mídia e Esporte e o Comitê de Ciência, Inovação e Tecnologia perguntaram ao compositor Max Richter como ele saberia se “atores de má-fé” estavam usando seu material para treinar modelos de IA.
“Realmente não há nada que eu possa fazer”, disse ele aos deputados. “Existem alguns modelos de IA musical, e é perfeitamente fácil fazer com que eles gerem uma peça musical que soa assustadoramente parecido comigo”, disse ele, conforme relatado pelo The Register.
“Isso não seria possível a menos que tivesse sugado minhas coisas sem me perguntar e sem pagar por isso. Isso está acontecendo em grande escala. Obviamente aconteceu com basicamente todos os artistas cujo trabalho está na internet”, acrescentou Richter.
Richter, cujo trabalho tem sido usado em grandes trilhas sonoras de filmes e televisão, alertou que o material automatizado iria marginalizar os criadores humanos, empobrecendo os músicos. “Você vai ter uma padronização da cultura musical”, disse ele, conforme relatado pelo The Register.
“Se permitirmos a erosão dos direitos autorais, que é realmente como se cria valor no setor musical, então estaremos numa posição onde não haverá artistas no futuro”, acrescentou ele.
O ex-funcionário do Google, James Smith, ecoou esse sentimento, dizendo: “O pecado original, se preferir, aconteceu.” Ele sugeriu que os governos deveriam se concentrar em apoiar o licenciamento como um modelo alternativo de monetização, relatou o The Register.
Matt Rogerson, diretor de política pública global do Financial Times, discordou, enfatizando que as empresas de IA estavam ativamente raspando conteúdo sem permissão. “Só podemos lidar com o que vemos à nossa frente”, disse ele, conforme relatado pelo The Register.
Um estudo descobriu que 1.000 bots únicos estavam raspando dados de 3.000 sites de editores, provavelmente para treinamento de modelos de IA, de acordo com o The Register.
Sajeeda Merali, diretora executiva da Associação de Editores Profissionais, criticou o argumento do setor de IA de que a transparência na coleta de dados era comercialmente sensível. “Sua verdadeira preocupação é que os editores então pediriam um valor justo em troca desses dados”, disse ela, conforme relatado por The Register.
A controvérsia sobre os dados de treinamento de IA escalou em outubro quando mais de 13.500 artistas assinaram uma petição para impedir que as empresas de IA coletassem obras criativas sem consentimento. Organizada pelo compositor e ex-executivo de IA Ed Newton-Rex, a petição foi assinada por figuras públicas como Julianne Moore, Thom Yorke e Kazuo Ishiguro.
“Há três recursos chave que as empresas de IA generativa precisam para construir modelos de IA: pessoas, computação e dados. Elas gastam somas enormes nos dois primeiros – às vezes um milhão de dólares por engenheiro e até um bilhão de dólares por modelo. Mas esperam obter o terceiro – dados de treinamento – de graça”, disse Newton-Rex.
As tensões aumentaram ainda mais quando um grupo de artistas vazou o acesso à ferramenta de texto para vídeo da OpenAI, Sora, em protesto. Chamando-se “Sora PR Puppets“, eles forneceram acesso gratuito à API do Sora via Hugging Face, permitindo que os usuários gerassem clipes de vídeo por três horas antes da OpenAI encerrar.
Os manifestantes alegaram que a OpenAI tratava os artistas como “marionetes de RP”, explorando o trabalho não remunerado para uma empresa de $157 bilhões. Eles divulgaram uma carta aberta exigindo uma compensação justa e convidaram os artistas a desenvolverem seus próprios modelos de IA.
Com artistas e editoras resistindo ao uso irrestrito de seu conteúdo pela IA, o debate sobre práticas éticas de treinamento de IA continua a se intensificar. O governo do Reino Unido enfrenta uma pressão crescente para implementar políticas que protejam as indústrias criativas sem reprimir o avanço tecnológico.