4 estratégias essenciais para proteger dados sensíveis no uso de IA generativa

0

O uso da inteligência artificial (IA) tem aumentado significativamente dentro do ambiente corporativo, atuando como uma ferramenta essencial para otimizar processos e impulsionar a inovação. Uma pesquisa realizada em 2024, pelo Enterprise Strategy Group, revela que 96% das organizações já aplicam ou desenvolvem estruturas de governança para a utilização de IA generativa (GenAI). Apesar desse avanço, o mesmo relatório aponta que, 8,5% dos comandos (prompts) desenvolvidos por funcionários, continham informações confidenciais que foram compartilhadas com ferramentas de inteligência artificial.

No Brasil, a Lei Geral de Proteção de Dados (LGPD) exige que as empresas adotem medidas rigorosas para proteger dados pessoais e sensíveis, reduzindo os riscos de exposição de informações sigilosas de clientes e das próprias organizações. A aplicação dessas medidas reforça a relevância da adoção de estratégias robustas, por parte das empresas, para mitigar os riscos associados ao uso de IA generativa.

Dennys Cabrerizo, Gerente Técnico de Arquitetura da Dedalus, reforça a importância da conscientização dos funcionários: "As ferramentas de GenAI podem ser poderosas aliadas na inovação, mas exigem uma abordagem estratégica que combine tecnologia, políticas internas e cultura organizacional", afirma.

Práticas essenciais para a proteção de dados

O especialista destaca iniciativas essenciais para equilibrar a eficiência operacional e evitar o risco do vazamento de dados sensíveis:

Modelos privados e infraestrutura segura: o uso de Modelos de Linguagem de Grande Escala (LLMs) – programas de IA que geram e compreendem textos em servidores internos ou nuvens privadas – reduz a exposição de dados a provedores externos, mantendo as interações com essas tecnologias dentro de ambientes controlados e seguros.

Substituição e anonimização de dados: implementar técnicas que substituem ou ocultem dados sensíveis antes de enviá-los para processamento garantem que informações críticas não fiquem expostas.

Monitoramento e auditoria contínuos: a introdução de estratégia de segurança cibernética que ajuda a proteger dados confidenciais, como a Data Loss Prevention (DLP), é ideal para rastrear interações com a IA e evitar vazamentos.

Adoção de controles baseados em função (RBAC): restringir o acesso à IA conforme a necessidade operacional de cada usuário garante que apenas perfis autorizados possam interagir com determinados tipos de dados.

Também é fundamental que as empresas estabeleçam níveis claros de sensibilidade para os dados acessíveis e implementem regras específicas sobre o uso de informações, determinando quais dados podem ser utilizados durante o processamento com IA. Tais iniciativas promovem a conscientização dos colaboradores sobre os riscos associados ao uso inadequado das ferramentas de IA, além de reforçar o controle sobre diretrizes de conformidade e segurança, criando uma cultura organizacional mais responsável e alinhada às melhores práticas.

De acordo com Cabrerizo, a tendência é que as empresas adotem uma postura cada vez mais criteriosa em relação ao uso dessas tecnologias, incorporando camadas adicionais de proteção e controle em suas operações, e alinhando o uso conforme os padrões de segurança e privacidade. "No futuro, veremos mais investimentos em soluções que permitam a personalização de modelos GenAI dentro de ambientes controlados, garantindo que a inovação aconteça sem comprometer a segurança dos dados", conclui o especialista.

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.