A startup de inteligência artificial Anthropic obteve uma vitória preliminar em um processo movido por grandes editoras musicais como Universal Music Group, Concord e ABKCO. Um juiz federal da Califórnia rejeitou o pedido das editoras para proibir o uso de letras de músicas no treinamento do chatbot Claude, alegando que a solicitação era ampla demais e que não houve comprovação de dano irreparável. As editoras, que processaram a empresa em 2023, afirmam que a Anthropic usou trechos de mais de 500 músicas de artistas como Beyoncé e Rolling Stones sem autorização.
A decisão é um marco nos debates jurídicos sobre o uso de obras protegidas por direitos autorais em treinamentos de IA. Embora a juíza Eumi Lee não tenha decidido sobre o mérito da alegação de uso justo (fair use), ela indicou que esse será um ponto central nos processos envolvendo gigantes da tecnologia como OpenAI, Meta e Microsoft. Enquanto isso, as editoras reafirmaram sua confiança na causa, e a Anthropic celebrou o indeferimento do que classificou como um pedido “vago e disruptivo.