É possível que você já tenha ouvido falar do ChatGPT-3, mas possua dúvidas sobre o que é efetivamente essa ferramenta e como ela pode impactar a privacidade dos indivíduos. De toda forma, antes de entrarmos nos riscos, convém explicar o que é o ChatGPT-3, como funciona e seus objetivos.
O ChatGPT-3 é um motor de Inteligência Artificial (IA) que foi treinado com dados referentes a conversações e diálogos, ou seja, é uma ferramenta preparada para ser capaz de dialogar com pessoas de forma fluída, dando a impressão de que você está conversando com uma pessoa. Essa ferramenta foi construída com base na família GPT-3 e treinado, com muitos dados coletados da internet, utilizando técnicas de aprendizado supervisionado e por reforço.
Na prática isso significa que o ChatGPT-3 foi construído por meio de um grande processo de "tentativa e erro", no qual grandes quantidades de dados foram utilizadas para refinar as respostas do modelo e torná-lo o mais assertivo possível. E é nesse ponto que os desafios começam, o primeiro deles é que como o modelo foi treinado, e qual a origem específica dos dados que foram utilizados. Esse é um ponto relativamente opaco, a documentação descreve o processo, mas dada a sua própria natureza não é possível identificar cada etapa.
Contudo, não apenas o conjunto "padrão" do ChatGPT-3 é potencialmente problemático, mas também como este é utilizado pelos usuários, estes podem criar modelos próprios dados para treinar o ChatGPT-3 para entender e responder a perguntas sobre tópicos específicos, por exemplo, é possível conectar com bancos de dados da sua organização para treinar o modelo.
Considerando esse cenário, convém entrar nos potenciais problemas, o primeiro deles é o da discriminação algorítmica, um dado já observado em outras aplicações, especialmente de reconhecimento facial, é que como os modelos são treinados com base em amostras, banco de dados, existentes eles tendem a reproduzir preconceitos e internalizá-los de maneira que pode ser difícil de identificar. O ChatGPT-3 pode reproduzir preconceitos e discriminação porque está reproduzindo padrões já existentes, que são discriminatórios, isso não significa que a IA em si é discriminatória, mas que o seu treinamento a enviesou para resultados não desejados.
Além disso, existem riscos à privacidade dos indivíduos, em especial a como é realizado o tratamento de seus dados pessoais, lembrando aqui que é considerado dado pessoal informação relacionada a pessoa natural identificada ou identificável, por exemplo, isso inclui de um número de CPF a uma placa de identificação de veículo.
Para dar um exemplo concreto, imagine que possui um banco de dados de seus clientes (pessoas físicas) e você treine o ChatGPT-3 com essas informações, como foram tratados os dados pessoais? É possível remover dados pessoais de um indivíduo do modelo treinado? Como garantir que os dados pessoais não serão utilizados por outro modelos de terceiros?
De toda forma, a despeito de todos esses potenciais problemas a tecnologia do ChatGPT-3 e aplicações similares de IA é uma realidade, o ponto é como nos preparar para esses problemas e garantir uma utilização segura da tecnologia.
Luciano Del Monaco, Sócio da Daniel Advogados.