No final de junho, a música se tornou a mais nova fronteira na batalha entre empresas de IA e aquelas envolvidas na criação de qualquer tipo de conteúdo original. Surgiram relatos que grandes gravadoras, incluindo Sony Music Entertainments, Warner Records e Capitol Records, entraram com ações de violação de direitos autorais contra os serviços de geração de música Suno e Udio. As empresas alegam que o trabalho dos artistas foi usado para treinar os algoritmos de IA, violando as leis de propriedade intelectual, e estão buscando indenizações de até US$ 150.000 por música.
Essas alegações podem ser novas para a indústria musical, mas as empresas de IA agora empregar exércitos de advogados para lidar com tais processos. O surgimento do ChatGPT no final de 2022 coincidiu com o surgimento de ferramentas de imagem generativas, levando a uma reação legal de artistas, escritores, organizações de notícias e outros criativos, Incluindo Getty Images, o New York Times e a comediante e escritora Sarah Silverman. Até mesmo desenvolvedores de código aberto têm processou o GitHub por não seguir os requisitos da licença de código aberto do GitHub ao permitir que o código fosse copiado e republicado sem atribuição.
Uma regra para eles
Dada a natureza incipiente da tecnologia e o fato de que tais casos estão criando precedentes judiciais que podem ser mantidos por muito tempo, os argumentos legais provavelmente continuarão por algum tempo. Muito provavelmente, grande parte do tempo será gasto debatendo pontos tediosos sobre semelhanças e diferenças precisas entre uma entrada criada por humanos e uma saída gerada por IA.
No entanto, da perspectiva do consumidor, as empresas de tecnologia estão deixando questões éticas muito mais amplas pairando no ar. Essas empresas zelosamente – mas compreensivelmente – guardam seus algoritmos como segredos comerciais sensíveis, mas parecem não ter limites quando se trata de consumir e comercializar propriedade intelectual protegida.
À medida que as lutas legais se tornam mais notórias, envolvendo mais marcas e nomes influentes com seguidores leais, escolher se envolver com empresas de IA se torna mais uma decisão ética. Qualquer usuário de modelos de IA em que a empresa esteja em disputa com criativos sobre o uso de sua propriedade intelectual significa que o usuário é cúmplice na violação dos direitos do artista. De uma perspectiva legal, a extensão em que os usuários podem ser responsabilizados pelo uso de uma saída gerada por IA permanece relativamente não testada. Se Joe Public usa IA para criar imagens ou texto que reproduzem tão de perto uma parte do trabalho original que o original é claramente identificável, Joe Public é responsável por identificar uma possível violação e não usar esse trabalho para ganho comercial?
A regulamentação não é uma panaceia
Os reguladores estão apenas começando a lidar com as respostas para tais questões. Embora o pragmatismo de novos quadros legais como o Lei da UE sobre IA foi elogiado, ele aborda a IA da perspectiva do risco, falhando em abordar o problema de PI. Então, soluções são necessárias. E a maioria dos processos depende de demandas relativamente diretas por parte dos criadores de conteúdo – compensação adequada e atribuição por seu trabalho, às quais eles têm direito sob as leis de PI existentes.
A transparência e a criptoeconomia da tecnologia blockchain oferecem uma maneira elegante de abordar o problema. Link de quedauma solução desenvolvida pela droppGroup, permite que operadores de modelos de IA estabelecidos os tokenizem por meio de sua plataforma. Isso fornece rastreamento, rastreio e procedência da atividade do modelo e cria um incentivo para que proprietários de IP ofereçam seus IPs a empresas de IA sob termos comerciais, já que eles serão compensados automaticamente por meio do sistema de contratos inteligentes da droppLink.
A plataforma opera em três níveis no processo de IA generativa. Uma camada de Prova de Geração valida a autenticidade dos dados de treinamento e a saída de IA em si, alavancando uma rede de validadores descentralizada. Essa autenticação alimenta o processo de compensação do criador por usar seu trabalho como uma entrada. A camada de gênese de dados automatiza a tokenização de dados de treinamento de IA e cria um registro imutável na cadeia de origem e uso de dados. Finalmente, cada saída é tokenizada como um ativo digital exclusivo, e os pagamentos aos criadores são executados automaticamente.
Empresas de tecnologia que buscam abordar proativamente as questões éticas com scraping de conteúdo têm uma oportunidade de se diferenciar ao trazer suas atividades para a cadeia usando ferramentas como droppLink. Fornecer uma compensação justa aos criadores, juntamente com transparência sobre como o conteúdo e os dados são usados, também permite que as empresas reduzam sua responsabilidade legal ao mesmo tempo em que demonstram um compromisso com práticas éticas para reguladores e legisladores. Ele fornece uma base legal e moral mais sólida para o futuro desenvolvimento, promoção e adoção de IA.
Todas as imagens são geradas por Eray Eliaçık/Bing
Source: A IA generativa tem um problema de propriedade intelectual: o blockchain é a solução?