O cenário legal para a inteligência artificial generativa começa a ser definido em tribunais. Um marco importante ocorreu em 5 de setembro passado, quando a Anthropic informou a um juiz federal de São Francisco sua concordância em pagar US$ 1,5 bilhão para encerrar uma ação coletiva de autores. Eles acusavam a empresa de usar livros pirateados de sites como LibGen e PiLiMi (Pirate Library Mirror) para treinar seu chatbot, Claude. Este foi o primeiro acordo do gênero, sinalizando um novo patamar de risco para o setor.
Pouco depois, em início de outubro, o Tribunal do Distrito Sul de Nova York ordenou que a OpenAI entregasse comunicações internas de seus funcionários que discutiam a exclusão de um conjunto de dados com livros pirateados, até então protegidas pelo privilégio do sigilo da relação advogado-cliente. A decisão está ligada a vários processos contra a OpenAI, nos quais os autores tiveram acesso a conversas na plataforma Slack, usada para comunicação interna. Conforme alerta a agência de notícias Bloomberg, “Os riscos vão além de uma indenização elevada. Se o tribunal concluir que a OpenAI destruiu provas, antecipando o litígio, sanções poderão ser aplicadas”.
Ambos os casos, envolvendo duas das principais empresas de IA – Anthropic e OpenAI -, representam um ponto de inflexão para a indústria. Eles estabelecem precedentes perigosos para as gigantes tecnológicas, sugerindo que a prática de treinar IA com conteúdo pirateado, outrora encarada como uma “zona cinzenta”, transformou-se em um terreno legalmente arriscado e potencialmente bilionário. A ordem para a OpenAI entregar comunicações internas (decisão da qual a empresa recorreu e que ainda aguarda uma resolução final) abre um precedente processual, indicando que o privilégio advogado-cliente pode ser quebrado se houver indícios de destruição de provas. As decisões ameaçam as gigantes de tecnologia que já enfrentam o desafio de encontrar modelos de negócios sustentáveis para a IA generativa.
Em um cenário de incertezas, tribunais mundo afora vêm arbitrando com base em suas próprias interpretações das leis vigentes. No Brasil, a Câmara dos Deputados, no processo de revisão da versão do PL2338, aprovada em 10 de dezembro pelo plenário do Senado, realizou três audiências públicas sobre IA generativa e direitos autorais (nos dias 2, 9 e 10 de setembro). Um artigo que fez parte de série sobre as 14 audiências públicas (“Os dilemas jurídicos da IA generativa”, Dora Kaufman, 18 de setembro de 2025, Valor Econômico) descreve os principais argumentos e sugestões apresentados pelos convidados, ressaltando que: “Em teoria, as reivindicações dos produtores de conteúdo são legítimas – remuneração pelo uso de materiais protegidos, considerados insumos. A questão central é a viabilidade técnica”. Há um risco real de que, se a regulamentação for excessivamente restrita, o país fique à margem do desenvolvimento e uso da IA generativa.
Merece leitura atenta o documento “Direitos autorais e treinamento de IA generativa – desafios regulatórios”, de Rony Vainzof, publicado pela AASP Editora (setembro de 2025, ). Vainzof argumenta que, embora o “fair use” – possibilidade de utilização de obras protegidas por direitos autorais sem consentimento – não esteja explicitamente na Lei de Direitos Autorais (LDA), o ordenamento jurídico brasileiro prevê exceções aos direitos patrimoniais. Ele lembra ainda a jurisprudência do STJ ao adotar a “regra dos três passos”. Essa regra permite o uso sem autorização em casos especiais, desde que não conflite com a exploração comercial normal da obra nem cause prejuízo injustificado ao autor. A questão é se esse entendimento se aplica ao treinamento de sistemas de IA.
Vainzof lista alguns dos argumentos favoráveis à aplicação desse entendimento: a) Os dados são insumos técnicos para ensinar o modelo sobre relações estatísticas (padrões, gramática e raciocínio humano), não para reproduzir as obras originais); b) O modelo aprende com os dados, mas não os copia; c) O aprendizado é comparável ao processo humano de autoaprendizagem indutivo; d) A responsabilização por outputs que violem direitos autorais permanece possível; e e) Flexibilizar o acesso fomenta a concorrência, evitando que apenas grandes empresas dominem o mercado devido aos custos de licenciamento.
Partindo do pressuposto de que a reivindicação de remuneração pelo conteúdo usado é legítima, o autor propõe três modelos de licenciamento como solução: licenciamento voluntário direto, centrado em entidades detentoras de direitos autorais; licenciamento coletivo, permitindo que organizações de gestão coletiva licenciem o uso de grandes números de obras; e licenciamento compulsório, percebido como opção de última instância pela dificuldade operacional.
No cerne dessas disputas legais reside um conflito filosófico: o treinamento de IA é um “uso justo” ou uma apropriação indevida em massa? De um lado, a indústria de IA defende a primeira tese, comparando o processo a um ser humano que lê livros para aprender a escrever. Do outro, criadores e detentores de direitos veem uma reprodução em escala industrial, capaz de gerar um produto que é, inclusive, concorrente direto das obras que o alimentam.
No entanto, essa aparente oposição é atenuada por uma realidade prática e crescente: os criadores já adotam a IA em seus fluxos de trabalho, e os desenvolvedores dependem da criatividade humana para refinar e qualificar seus modelos. Essa interdependência torna premente a necessidade de as partes superarem os extremos e estabelecerem premissas comuns para um diálogo construtivo.
Enquanto o debate legislativo e judicial evolui, o mercado já começa a esboçar diferentes modelos de negócio, testando a viabilidade das propostas de licenciamento. Por um lado, vemos a consolidação de parcerias estratégicas diretas. A OpenAI, por exemplo, fechou acordos multimilionários com gigantes como a Associated Press e a editora Alex Springer, criando um precedente para o licenciamento voluntário de grandes bases de conteúdo. Neste modelo, as empresas de IA internalizam o custo do conteúdo como um insumo essencial, similar à matéria-prima.
Paralelamente, empresas como a Adobe (com seu Firefly, treinado em sua própria biblioteca de imagens e conteúdos com licença aberta e de domínio público) e a startup francesa Mistral (que defende modelos abertos treinados com dados filtrados) buscam construir uma proposta de valor baseada na premissa de que seus sistemas são “limpos” do ponto de vista dos direitos autorais. No extremo oposto, persiste o modelo de “implantar primeiro e perguntar depois”, que agora enfrenta o contra-ataque legal exemplificado pelos casos da Anthropic e OpenAI. O risco aqui deixou de ser teórico e se tornou financeiramente palpável.
O caminho que cada país escolher terá profundas implicações geopolíticas e econômicas. Uma regulação excessivamente restritiva, como a que se esboça na União Europeia com a Lei de IA (AI Act), pode, de fato, inviabilizar a IA: cria um ambiente seguro para os detentores de direitos, mas potencialmente estanque para a inovação local, consolidando o domínio das poucas empresas globais que podem arcar com o custo massivo do licenciamento. Por outro lado, a adoção de um “fair use” amplo e irrestrito, sem qualquer mecanismo de compensação, pode asfixiar economicamente os criadores no longo prazo, corroendo a própria base de conteúdo original e de qualidade que alimenta os modelos de IA. O desafio, portanto, não é apenas encontrar um equilíbrio, mas construir um ecossistema que sustente tanto a inovação tecnológica quanto a economia criativa.
A solução talvez não esteja em um único modelo, mas em um mosaico regulatório que combine elementos dos três: estimular o licenciamento voluntário para grandes detentores de conteúdo, criar mecanismos de licenciamento coletivo ágeis e inovadores para obras de menor escala, e estabelecer exceções claras e seguras para usos genuinamente transformadores e de pesquisa. A interdependência citada no artigo não é apenas uma realidade operacional, mas a chave para o futuro da inteligência artificial.
 
	    	






 
							