GPT-4, da inovação à cautela: três pontos de atenção e riscos legais com o uso da ferramenta

0

Recentemente a OpenAI disponibilizou a nova versão do ChatGPT ("Chat Genarative Pre-Trained Transformer"), um programa de Inteligência Artificial (IA) que, como o próprio nome já indica, foi e é treinado para produzir bate-papo em formato de textos. Fruto de contínua evolução de sistemas de inteligência artificial, o programa funciona como um chatbot com o qual o usuário interage fazendo perguntas ou fornecendo instruções do que deseja e recebe do ChatGPT aquilo que foi solicitado. As possibilidades são várias, como resumo de textos, elaboração de artigos a sobre um tema fornecido, traduções, recomendações, resolução de matemáticas e até a sugestões de correção em código-fonte de programas de computador. A nova versão do software, o GPT-4, inclusive, permite interpretar imagens.

Tais respostas chamam atenção em razão da adequação gramatical e semântica dos textos. Tudo isso é possível pois a ferramenta possui uma base de dados enorme, alta capacidade de processamento e foi treinada para utilizar os feedbacks recebidos dos usuários para aprimorar as próximas respostas. É o chamado "aprendizado por reforço com feedback humano" (RLHF, pela sigla em inglês).

Naturalmente, o ChatGPT possui limitações e riscos. Uma limitação é que as respostas são construídas com base nesses feedbacks e na base da aplicação. A ferramenta não faz pesquisas na internet, portanto, as respostas se limitam ao que a ferramenta "sabe" até o momento da última atualização da base de dados, o que, neste caso, ocorreu em setembro de 2021. Os riscos e incertezas ainda preocupam, principalmente em razão de a ferramenta aprender com os usuários que interagem com ela. A bem da verdade, talvez o maior risco esteja do lado de fora da ferramenta.

Disseminação de desinformação e preconceitos

Em uma sociedade dinâmica e marcada por diferenças culturais e sociais, talvez nenhuma ferramenta ou informação seja isenta de questionamento. Com o ChatGPT não seria diferente, até porque a base está limitada a conteúdos inseridos até 2021. A própria OpenAI reconhece que podem ser encontradas informações incorretas no ChatGPT, bem como pode reproduzir preconceitos, racismo, machismo ou, ainda, não parecerem ter sido construídas com base em algum treinamento – quando temos aquilo que vem sendo denominado de alucinações do ChatGPT. Ainda que a ferramenta seja dotada de revisão e moderação das respostas na etapa de treinamento e aprendizagem (fator aprimorado na última versão disponibilizada), o risco de criar e reproduzir informações falsas ou inadequadas é de difícil afastamento.

Aqui vale um exemplo hipotético, mas preocupante. É possível pedir ao ChatGPT para criar textos com "discurso político" do candidato A, B ou C. Em outra ponta, tem-se ferramentas de deepfake, capazes de criar ou substituir rostos. Combinando os dois, o resultado seria um vídeo que simula a presença e o discurso de alguém com ainda mais precisão e qualidade

Direitos autorais

As discussões em torno do ChatGPT acerca de direitos autorais passam tanto pela autoria dos textos produzidos pela ferramenta quanto por eventuais textos e obras utilizados pela plataforma para elaborar a resposta. No primeiro ponto, a legislação brasileira determina que, para a proteção legal, a obra precisa ser feita por um ser humano, o qual se valerá de certa criatividade e inspiração para produzi-la. Sem inspiração, ou sem intervenção humana, um texto produzido por uma inteligência artificial seria da própria inteligência. Porém, em virtude de a autoria ser restrita a humanos, haveria uma lacuna ou dificuldade em se determinar o real autor, chegando a ser defendido por alguns que o texto seria de domínio público. A questão não é tão cartesiana e simples, até porque a legislação autoral não esclarece o tema 100%. Além disso, o ChatGPT possui um termo de uso que criará obrigações privadas entre a plataforma e o usuário, de modo que possam ser criadas regras para o uso e/ou responsabilidade pela utilização dos textos ali criados.

Por outro lado, partindo da premissa de que o ChatGPT está atrelado a uma grande base de dados e que eventuais respostas possam ter referências a obras autorais, estaria a ferramenta violando direitos autorais? Neste caso, quem seria o responsável pela violação? Naturalmente, o uso da ferramenta resultará em desafios de identificação de autoria, plágio e afins. Vale lembrar que o ChatGPT não indica as fontes ou links que justificam a resposta. Essas questões estão em aberto e precisarão ser endereçadas pelo Judiciário e/ou novas legislações.

Para fechar (ou deixar ainda mais em aberta) a discussão sobre esse ponto, estão sendo lançadas ferramentas que pretendem identificar se o texto foi produzido por humano ou IA para auxiliar na identificação de autoria – ferramentas que certamente auxiliarão escolas e faculdades na avaliação dos textos apresentados por alunos, por exemplo.

Riscos cibernéticos

O ChatGPT possui filtros e moderações com o intuito de atribuir controles e segurança às respostas. Contudo, conforme apontado pela Forbes, pesquisadores da CyberArk, empresa focada em segurança cibernética, afirmaram ter conseguido criar malwares usando a plataforma da OpenAI, burlando os filtros políticos e de conteúdo do ChatGPT. Ainda que o resultado seja questionável, a publicação destaca que o perigo não é esse resultado, mas o fato de o ChatGPT aprender com exemplos. Quanto mais exemplos ruins, mais saídas similares serão fornecidas ao longo do tempo.

Um outro estudo, conduzido pela Check Point Research, demonstrou que cibercriminosos estariam utilizando o ChatGPT para criar e-mails "convincentes" para phishing, mostrando os caminhos inadequados que a humanidade pode dar à ferramenta.

O fato é que as tecnologias baseadas em Inteligência Artificial vieram para ficar e já são utilizadas por grandes empresas para aprimorar os próprios produtos e serviços. Elas também são discutidas no meio acadêmico e devem, com alguma urgência, serem objeto de apreciação dos legisladores para que a sociedade esteja preparada para lidar com os dilemas decorrentes dos impactos que elas produzirão. O Brasil tem sido um dos países pioneiros nessa regulamentação da IA, conforme se vê no avançar do PL 21/2020 – em trâmite no Congresso Nacional – em que pese o texto proposto pela comissão de juristas ter sido alvo de críticas por parte da iniciativa privada.

Filipe Ribeiro Duarte, Coordenador da equipe de Direito Digital do Martinelli Advogados.

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.