Informar dados sensíveis ao ChatGPT pode ser um risco, aponta especialista

0

Com a implementação da LGPD, a proteção de dados passou a ser algo vital para muitas empresas, muitas vezes ter seus dados ou os de seus clientes expostos podem gerar multas ou problemas internos.

Recentemente, o ChatGPT, teve uma vulnerabilidade divulgada após um estudo, onde após um simples comando, a ferramenta expos dados de uma empresa e de um escritório de advocacia.

Gabriel Paiva, CEO da Dfense Security, falou a respeito do tema. O executivo alerta para a maneira que o ChatGPT trabalha com os dados, sendo que a plataforma aprende e absorve os dados inseridos, e nem sempre passam pela revisão de um humano. Dessa forma, a ferramenta abre a possibilidade de outro usuário perguntar pelos dados, e assim, acabar obtendo a resposta.

Para o especialista, um dos maiores desafios de cibersegurança atualmente é justamente essa espécie de "triagem", onde fica muito difícil para empresas como a OpenAI analisarem todos os dados absorvidos pela plataforma, e assim, possam identificar quais dados são sensíveis e não devem ser passados adiante.

Por fim, o executivo avalia que ainda não há uma solução para tal problema, e recomenda que os usuários avaliem os dados a serem inseridos na plataforma, para que assim não corram riscos.

CONFIRA A ENTREVISTA COMPLETA

Gabriel Paiva, CEO da Dfense Security, concedeu uma entrevista exclusiva para TI Inside. O executivo comentou sobre diversos temas da cibersegurança, mostrando como análise de dados e a Inteligência Artificial podem ser grandes aliados no reconhecimento de invasões. Confira:

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.