IA para gestão da privacidade

0

Atualmente, é praticamente impossível falar sobre tecnologia e inovação sem citar Inteligência Artificial. Se os avanços no uso de IA são visíveis em inúmeras empresas e em nossas próprias rotinas, não seria diferente quando o tema é proteção de dados.

Recentemente, a Autoridade Nacional de Proteção de Dados (ANPD) publicou a sua segunda análise do Projeto de Lei sobre inteligência artificial no Brasil, em que propõe a criação de um modelo institucional de regulação de sistemas de IA, sendo a ANPD o órgão regulador central do tema.

Ao refletirmos especificamente sobre a Lei Geral de Proteção de Dados (LGPD), com todas as suas complexidades e particularidades, vemos, sem dúvidas, o potencial do uso de IA, para também acelerar o mapeamento e a descoberta de dados, bem como a gestão de riscos.

Vale lembrar que um projeto de adequação à LGPD envolve um forte trabalho de conscientização, produção documental, mapeamento de processos, gestão de riscos, entre outras ações estratégicas. Essas atividades podem ser realizadas de forma manual ou automatizadas através de workflows, por exemplo.

Assim, o uso de IA Generativa tende a automatizar processos importantes quando da realização de um projeto de LGPD. Através dela, é possível avaliar todos os riscos quanto à privacidade e à proteção de dados aos quais a empresa está exposta. Isso acelera o trabalho das equipes que poderão dedicar mais tempo nas demais atividades do projeto, que possuem todas as suas características e peculiaridades.

Ao mesmo tempo, muitas das principais plataformas que usam IA Generativa precisam fazer o retreinamento de modelos (fine-tunning), caso queiram potencializar a resposta de um prompt com dados corporativos sem expor a privacidade ou utilizar técnicas mais sofisticadas de indexação vetorial para o mesmo fim.

Uma IA Generativa para privacidade tem como premissa básica a proteção de dados. Logo, é necessário que dados de uma empresa não sejam usados para gerar respostas para outras companhias, sendo cada ambiente isolado e com modelos treinados para aquele contexto específico.

Em termos práticos, imagine o time de privacidade fazendo um questionário para um fornecedor sobre suas ações na área. Quem fará a avaliação? Quem avalia os riscos gerados pelas respostas? Tudo isso pode ser acelerado.

Imagine você, como DPO (Data Protection Officer), respondendo um pedido de um titular e recebendo sugestões de retornos a partir de dados treinados com o seu perfil. Por que não ter um co-piloto para tudo isso?

Esses são apenas alguns exemplos do que será possível fazer para aprimorar programas de proteção de dados com o uso cada vez maior de IA e suas inúmeras aplicações. Se o tema Inteligência Artificial é recorrente quando se fala em tecnologia, também será quando falamos em privacidade e proteção de dados.

Aline Deparis, CEO da Privacy Tools.

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.