IA que age sozinha: o desafio jurídico da proteção de dados

0

A inteligência artificial está dando um passo além da conversa. Se antes os assistentes virtuais eram usados apenas para tarefas simples — como responder perguntas ou agendar compromissos — agora, com a evolução dos chamados modelos de linguagem (LLMs), estamos diante de sistemas capazes de agir sozinhos. Eles tomam decisões, se conectam a diferentes fontes de informação e, muitas vezes, atuam com mínima supervisão humana. Essa nova geração de IA, conhecida como Agentic AI, já começa a ser testada em empresas para automatizar rotinas inteiras: desde responder e-mails até organizar viagens ou interagir com sistemas internos de atendimento ao cliente.

A promessa de eficiência é enorme, mas há um alerta que não pode ser ignorado: esses agentes inteligentes acessam, combinam e tratam dados pessoais — e às vezes dados sensíveis — de forma intensa. Eles aprendem com interações, têm acesso contínuo a agendas, e-mails, mensagens e plataformas diversas. E tudo isso acontece, muitas vezes, sem que o usuário tenha plena consciência de quais dados estão sendo coletados, para que estão sendo tratados ou onde estão sendo armazenados.

Um relatório técnico recém-publicado com o apoio do Conselho Europeu de Proteção de Dados chama atenção justamente para esses riscos. O documento mostra que, quanto mais autônomos esses sistemas se tornam, mais difícil é assegurar a transparência, segurança e controle sobre o uso das informações pessoais. Em outras palavras, a IA pode estar facilitando a nossa vida — mas também está criando pontos de vulnerabilidade.

Além da coleta e do uso massivo de dados, outro desafio que surge é a definição de responsabilidades. Quando um agente comete um erro — agenda um compromisso errado, responde de forma indevida, ou expõe uma informação sensível — quem é o responsável? A empresa que desenvolveu o sistema? A organização que o contratou? O próprio usuário? Ainda estamos em um território pouco explorado, e é justamente por isso que a discussão precisa amadurecer.

No contexto da proteção de dados, essa nova fase da IA exige uma abordagem que vá além do jurídico tradicional. Não basta revisar políticas de proteção de dados ou inserir cláusulas nos contratos. É preciso pensar em governança, em revisão contínua dos fluxos de tratamento de dados pessoais, em monitoramento ativo e em medidas que reduzam a exposição de informações desnecessárias. A própria LGPD, ao tratar do princípio da necessidade e da proteção desde a concepção (privacy by design), nos oferece boas diretrizes para lidar com esse cenário — mas, sem dúvida, será preciso avançar em interpretações e orientações específicas, especialmente quando se trata de agentes autônomos e sistemas de decisão automatizada.

É importante dizer que isso não é uma defesa contra a inovação. Muito pelo contrário. O uso de IA pode, sim, transformar positivamente o modo como vivemos e trabalhamos. Mas essa transformação precisa vir acompanhada de responsabilidade. A proteção de dados não pode ser vista como um freio, e sim como uma base para alavancar de forma segura, ética e confiável.

O futuro pertence a quem lidera com responsabilidade. À medida que os agentes de inteligência artificial se tornam cada vez mais autônomos, cabe a nós mantermos o respeito à privacidade no centro das decisões. Afinal, mesmo em tempos de automação, os direitos fundamentais não podem ser automatizados.

Larissa Pigão, advogada especializada em Direito Digital e Proteção de Dados Pessoais, mestranda em Ciências Jurídicas pela UAL – Universidade Autônoma de Lisboa.

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.