ChatGPT-3 – Desafios da Privacidade

0

É possível que você já tenha ouvido falar do ChatGPT-3, mas possua dúvidas sobre o que é efetivamente essa ferramenta e como ela pode impactar a privacidade dos indivíduos. De toda forma, antes de entrarmos nos riscos, convém explicar o que é o ChatGPT-3, como funciona e seus objetivos.

O ChatGPT-3 é um motor de Inteligência Artificial (IA) que foi treinado com dados referentes a conversações e diálogos, ou seja, é uma ferramenta preparada para ser capaz de dialogar com pessoas de forma fluída, dando a impressão de que você está conversando com uma pessoa. Essa ferramenta foi construída com base na família GPT-3 e treinado, com muitos dados coletados da internet, utilizando técnicas de aprendizado supervisionado e por reforço.

Na prática isso significa que o ChatGPT-3 foi construído por meio de um grande processo de "tentativa e erro", no qual grandes quantidades de dados foram utilizadas para refinar as respostas do modelo e torná-lo o mais assertivo possível. E é nesse ponto que os desafios começam, o primeiro deles é que como o modelo foi treinado, e qual a origem específica dos dados que foram utilizados. Esse é um ponto relativamente opaco, a documentação descreve o processo, mas dada a sua própria natureza não é possível identificar cada etapa.

Contudo, não apenas o conjunto "padrão" do ChatGPT-3 é potencialmente problemático, mas também como este é utilizado pelos usuários, estes podem criar modelos próprios dados para treinar o ChatGPT-3 para entender e responder a perguntas sobre tópicos específicos, por exemplo, é possível conectar com bancos de dados da sua organização para treinar o modelo.

Considerando esse cenário, convém entrar nos potenciais problemas, o primeiro deles é o da discriminação algorítmica, um dado já observado em outras aplicações, especialmente de reconhecimento facial, é que como os modelos são treinados com base em amostras, banco de dados, existentes eles tendem a reproduzir preconceitos e internalizá-los de maneira que pode ser difícil de identificar. O ChatGPT-3 pode reproduzir preconceitos e discriminação porque está reproduzindo padrões já existentes, que são discriminatórios, isso não significa que a IA em si é discriminatória, mas que o seu treinamento a enviesou para resultados não desejados.

Além disso, existem riscos à privacidade dos indivíduos, em especial a como é realizado o tratamento de seus dados pessoais, lembrando aqui que é considerado dado pessoal informação relacionada a pessoa natural identificada ou identificável, por exemplo, isso inclui de um número de CPF a uma placa de identificação de veículo.

Para dar um exemplo concreto, imagine que possui um banco de dados de seus clientes (pessoas físicas) e você treine o ChatGPT-3 com essas informações, como foram tratados os dados pessoais? É possível remover dados pessoais de um indivíduo do modelo treinado? Como garantir que os dados pessoais não serão utilizados por outro modelos de terceiros?

De toda forma, a despeito de todos esses potenciais problemas a tecnologia do ChatGPT-3 e aplicações similares de IA é uma realidade, o ponto é como nos preparar para esses problemas e garantir uma utilização segura da tecnologia.

Luciano Del Monaco, Sócio da Daniel Advogados.

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.