Peck Advogados
post-header-blog-9231

Desafios legais na ascensão da IA Generativa: direitos autorais, legislações variadas, e propostas para equilibrar inovação e compensação de criadores

Por Leandro Bissoli e Ana Piergallini, sócio e advogada do Peck Advogados respectivamente

É notável a ascensão do uso ChatGPT, IA generativa da OpenAI, é notável. A empresa, considerada a mais disruptiva do Vale do Silício¹, anunciou a atualização da sua base de dados, expandindo-a para além de 2021². Essa expansão implica no uso de um volume ainda maior de dados, incluindo obras intelectuais protegidas por direitos autorais, publicadas até a data da atualização.

À medida que a OpenAI aprimora seus algoritmos e modelos de linguagem natural, se depara com um incremento nas disputas judiciais relacionadas à possível violação de direitos autorais das obras usadas no treinamento desses modelos, como na recente ação coletiva movida pela Authors Guild³. O cerne da lide está na capacidade desses modelos de IA em produzir resultados muito próximos às obras protegidas, suscitando legítimas preocupações sobre reproduções não autorizadas e seus impactos na exploração regular das obras originais.

Entender o funcionamento dos modelos de linguagem, especialmente os chamados Large Language Models (LLM), que são projetados para execução de tarefas de processamento de linguagem natural, assim como a arquitetura GPT (Generative Pre-Training Transformer), é fundamental para compreender esses litígios. A capacidade desses modelos em entregar resultados de alta qualidade está diretamente ligada ao expressivo volume de dados utilizados em seu treinamento.

As legislações que dispõem sobre o uso de obras protegidas variam de uma jurisdição para outra. O Japão, por exemplo, cuja legislação autoral foi atualizada em 2009, permite o uso de obras protegidas para treinar modelos de IA, com o objetivo de aprimorar o aprendizado de máquina. Nos Estados Unidos, onde tramitam várias disputas legais, vem sendo aplicada a exceção do fair use. No Brasil, o PL nº 2338/2023, em tramitação no Congresso Nacional, propõe uma hipótese de limitação no art. 42, com o objetivo de incentivar a pesquisa científica, de interesse público e a inovação. Justifica-se a exceção, desde que o uso não se destine a fins expressivos e cumpra com os requisitos das convenções internacionais das quais o Brasil faz parte.

A aplicação do conceito de “uso justo” parece ser uma abordagem adequada no contexto, contanto que observadas algumas ressalvas, como: (i) garantir os direitos morais dos autores, com destaque para o direito de paternidade – o devido crédito deve ser atribuído ao autor original – um desafio quando se lida com um vasto conjunto de dados de entrada; e, (ii) evitar a geração de resultados que se assemelhem substancialmente às obras originais ou que emulem a criação de um autor específico – a tênue linha entre uso legítimo e contrafação ou plágio.

Além disso, há de se cumprir o dever de transparência estabelecido pelo regulamento europeu e pelo projeto de lei nacional. O uso do conteúdo gerado pela IA deve ser acompanhado de avisos sobre a geração automatizada, propiciando condições dos usuários tomarem decisões informadas sobre o seu consumo.

Uma solução pertinente para conciliar os interesses envolvidos está na implementação de um modelo de gestão coletiva semelhante ao utilizado pelas plataformas de streaming. Como argumenta Nicola Lucchi em recente artigo científico publicado na Revista Cambridge⁴, os acordos para o uso compartilhado de dados podem ser utilizados como referência para resolver o uso de obras protegidas no treinamento em IA, assegurando ao mesmo tempo o cumprimento das leis de direitos autorais bem como assegurando direitos aos autores, respaldado pelas licenças necessárias. Além disso, a criação de programas de remuneração, como compartilhamento de receitas ou pagamento de royalties, pode funcionar para compensar os autores das obras protegidas por direitos autorais utilizadas para treinamento da IA.

Ao mesmo passo que são travadas tais discussões, as bigtechs buscam confortar seus usuários com salvaguardas para estimular o uso seguro das suas soluções de IA. O Google, por exemplo, acaba de divulgar seu compromisso em indenizar usuários em casos de reivindicações de terceiros, em especial as de direitos autorais, reforçando que segue práticas de IA responsáveis.⁵

Assim, temos muito a evoluir, especialmente no que diz respeito ao tratamento de dados de entrada. Os resultados das ações legais movidas contra a OpenAI e outros desenvolvedores de IA generativa certamente contribuirão para o debate em andamento e ajudarão a comunidade a estabelecer limites claros entre o que é inspiração e o que constitui violação.

A criação de tais parâmetros torna-se fundamental para promover o equilíbrio entre o sistema de direitos autorais e o avanço tecnológico, assegurando ao mesmo tempo que os criadores de conteúdo sejam justamente compensados por seu trabalho.

Fonte: Análise Editorial

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Esse site utiliza o Akismet para reduzir spam. Aprenda como seus dados de comentários são processados.