Publicidade
Início Notícias Inteligência Artificial Informar dados sensíveis ao ChatGPT pode ser um risco, aponta especialista

Informar dados sensíveis ao ChatGPT pode ser um risco, aponta especialista

0
Publicidade

Com a implementação da LGPD, a proteção de dados passou a ser algo vital para muitas empresas, muitas vezes ter seus dados ou os de seus clientes expostos podem gerar multas ou problemas internos.

Recentemente, o ChatGPT, teve uma vulnerabilidade divulgada após um estudo, onde após um simples comando, a ferramenta expos dados de uma empresa e de um escritório de advocacia.

Gabriel Paiva, CEO da Dfense Security, falou a respeito do tema. O executivo alerta para a maneira que o ChatGPT trabalha com os dados, sendo que a plataforma aprende e absorve os dados inseridos, e nem sempre passam pela revisão de um humano. Dessa forma, a ferramenta abre a possibilidade de outro usuário perguntar pelos dados, e assim, acabar obtendo a resposta.

Para o especialista, um dos maiores desafios de cibersegurança atualmente é justamente essa espécie de “triagem”, onde fica muito difícil para empresas como a OpenAI analisarem todos os dados absorvidos pela plataforma, e assim, possam identificar quais dados são sensíveis e não devem ser passados adiante.

Por fim, o executivo avalia que ainda não há uma solução para tal problema, e recomenda que os usuários avaliem os dados a serem inseridos na plataforma, para que assim não corram riscos.

CONFIRA A ENTREVISTA COMPLETA

Gabriel Paiva, CEO da Dfense Security, concedeu uma entrevista exclusiva para TI Inside. O executivo comentou sobre diversos temas da cibersegurança, mostrando como análise de dados e a Inteligência Artificial podem ser grandes aliados no reconhecimento de invasões. Confira:

SEM COMENTÁRIOS

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.

Sair da versão mobile