Vivemos um momento em que a inteligência artificial e o open source se entrelaçam como nunca antes. O conceito do open source, ou código aberto, remonta à segunda metade do século passado e está ligado ao movimento do software livre, o qual coincidiu com a iniciativa da contracultura hippie norteamerica, espraiada no costa sudoeste dos Estados Unidos, diante dos anseios libertários e emancipatórios relacionados ao advento do computador pessoal (PC).
O open source surgiu em resposta à crescente necessidade de trabalho colaborativo, com grupos de programadores compartilhando e modificando softwares para um aperfeiçoamento comum, com ganhos para toda a comunidade. Os grupos continham desenvolvedores e entusiastas que se reuniam para aprender e compartilhar conhecimento.
Seu início é marcado por figuras como Richard Stallman e Linus Torvalds. O primeiro iniciou o movimento, no MIT, do software livre, em 1983, com a criação do projeto GNU, buscando alternativas gratuitas a sistemas proprietários como o Unix. O segundo criou o kernel Linux ,em 1991, que se tornou a base para o sistema operacional GNU/Linux.
Em 1998, foi criada a Open Source Initiative (OSI) para formalizar o conceito de código aberto e promover seu uso comercial, diferenciando-o da perspectiva mais ideológica do software livre.
Assim, enquanto o movimento do software livre está atrelado a bases ideológicas, por meio da defesa da liberdade do usuário, o código aberto está vinculado a um modelo de desenvolvimento de software, alicerçado na colaboração entre os programadores e na transparência de seus códigos.
Tanto o movimento do Software Livre como da Open Source Initiative contribuíram para espraiar o código aberto (open source), o qual, em tempos mais recentes coincide com o avanço da tecnologia da inteligência artificial, trazendo novas nuances e desafios jurídicos ao cenário presente.
Se por um lado o código aberto impulsiona a inovação, democratiza o acesso ao conhecimento, por outro lado desafia estruturas jurídicas tradicionais, tal como a propriedade intelectual, além de nos colocar diante de dilemas éticos, jurídicos e sociais complexos.
Hoje, mais do que discutir tecnologia, somos chamados a repensar responsabilidade, transparência e o futuro da criação colaborativa em um mundo cada vez mais guiado por algoritmos.
É certo que a IA, especialmente a IA generativa, está cada vez mais desenvolvida com base em modelos treinados em bases de código open source (ex: GitHub Copilot, treinado com códigos do GitHub).
Não há dúvidas que o open source é essencial para o avanço da IA, trazendo mais transparência, mais dados de treinamento, e também mais auditabilidade. Vale dizer que grandes modelos, como GPTs, LLaMA, Stable Diffusion, dentre outros, se apoiam ou se inspiram em projetos open source.
As principais tensões, porém, sob o campo de análise jurídica estão relacionados a/ao:
- Licenciamento: muitas bases de código open source foram usadas para treinar modelos de IA. Há debate se isso viola licenças open source (como MIT, GPL, Apache).
- Direitos autorais: Quem é o dono do código gerado por IA? Há alegações de que IAs generativas geram trechos que reproduzem código existente.
- Sustentabilidade do open source: se empresas grandes lucram em cima de projetos open source, como garantir retorno para as comunidades de desenvolvedores?
- Ética e segurança: o open source facilita a inovação rápida, mas também pode facilitar o uso indevido ou vulnerabilidades em sistemas de IA.
Apesar das tensões sobre a mesa de discussão, é indiscutível que o modelo open source confere significativa importância à democratização da IA, permitindo mais inovação inclusive fora dos grandes centros tecnológicos, como EUA e China. Em relação, por exemplo, ao Github, que é um assistente de codificação com tecnologia da OpenAI, o Brasil é a quarta maior comunidade do mundo em número de usuários da plataforma, atrás apenas dos Estados Unidos, Índia e China.
Vivemos, atualmente, em um momento de tentativas de balancear os pratos, visando a usufruir dos benefícios do uso do open source para a IA e o endereçamento dos seus desafios jurídicos. Nas principais economias do mundo, de uma forma ou outra, discute-se, atualmente, questões regulatorias envolvendo IA e direitos autorais.
No Judiciário também é possível encontrar diversos casos com a mesma discussão. Em 2022, desenvolvedores ajuizam uma ação contra o GitHub, a Microsoft e a OpenAI, alegando que o GitHub Copilot copiara, ilegalmente, seu código Eles argumentaram que o Copilot, treinado em software de código aberto do GitHub, sugeriu trechos de código sem o devido licenciamento ou crédito, violando assim seus direitos de propriedade intelectual. O Juiz do caso rejeitou a maior parte das alegações dos autores da ação, porquanto não encontrou nenhuma evidência que as sustentasse, observando que não se tratava especificamente do Copilot, bem como que o o Copilot raramente memorizava código e só o fazia com trechos longos e semelhantes.
Para além dos casos em discussão, é importante colocar luz na necessidade de criar uma responsabilidade corporativa em torno do uso do open source na programação de IA. Nesse sentido, pode-se pensar em como grandes plataformas podem fomentar e disseminar práticas éticas no uso do open source para IA, a exemplo de melhor rotulagem de dados, crédito a autores, dentre outras práticas.
Por fim, vemos como tendência futura um maior surgimento de modelos open-weight (pesos abertos), open source (código aberto de treinamento e inferência), e open governance (governança aberta da IA), gerando ainda mais necessidade de espaços de discussões, equilibrando todos os valores envolvidos.
Juliana Abrusio, sócia da área de Direito Digital e Proteção de Dados do Machado Meyer Advogados.