ChatGPT e os cuidados necessários para preservar a Segurança da informação

0

A inteligência artificial tem transformado a forma como as empresas e pessoas realizam suas atividades cotidianas. Com a capacidade de aprender e realizar tarefas complexas, a IA tem o potencial de agilizar processos, melhorar a eficiência e reduzir custos. No entanto, é importante destacar que uma única vulnerabilidade na rede pode servir de brecha para que cibercriminosos invadam os sistemas de uma empresa e promovam o temido vazamento de dados. Isso também se aplica ao Chat GPT, uma ferramenta que pode trazer inúmeros benefícios e, ao mesmo tempo, requer medidas que garantam o seu uso com segurança.

Um sinal de alerta foi bug do Chat GPT Plus, ocorrido no final de março, que contribuiu para o vazamento de históricos de conversas de usuários, e também de dados pessoais (como nome, sobrenome, endereço de e-mail, endereço de pagamento), dados de cartão de crédito e outras informações sensíveis. Isso, no contexto empresarial, acende o farol vermelho, já que a violação de dados sensíveis pode acarretar no acesso indevido de terceiros a informações confidenciais, comprometendo a sua reputação e o seu negócio.

Ao integrar um chatbot à rede da empresa, é importante garantir que as melhores práticas de segurança cibernética sejam seguidas. Um chatbot mal protegido pode se tornar um ponto de entrada para ataques cibernéticos, como ataques de injeção de código, ataques de negação de serviço ou roubo de informações. Se o ChatGPT é utilizado para interações com Clientes ou parceiros comerciais, é importante garantir que o chatbot não divulgue segredos comerciais, planos futuros ou estratégias, já que a manipulação ou exploração do chatbot é um perigo real. Isso só se faz desenhando uma estratégia de segurança robusta e ágil, monitorando vulnerabilidades, testando o ambiente e tendo um serviço de resposta e recuperação automatizado e inteligente, que permita a proteção contra os atacantes e que seja escalável à sua necessidade de crescimento.

Hackers ou usuários mal-intencionados podem explorar falhas ou vulnerabilidades no sistema de inteligência artificial para obter o acesso não autorizado, e isso acontece, muitas vezes, por conta do desconhecimento dos usuários – que, na prática, são o elo mais fraco dessa cadeia. Por isso, qualquer plano de proteção tem que ter o usuário como protagonista e prever constantes treinamentos de conscientização a respeito do bom comportamento digital. Isso precisa ser a prioridade da sua empresa na lista das medidas preventivas, sem deixar de lado as políticas de acesso e de controle mais rigorosas, tais como estratégia multi fator de autenticação e o indispensável monitoramento de ameaças.

Por fim, nunca é demais ressaltar que a IA e o Chat GPT têm o potencial de agilizar e melhorar muitas atividades cotidianas. No entanto, é importante usar a tecnologia de forma ética e cuidadosa, garantindo a privacidade e a segurança dos dados e ainda, garantindo que as decisões tomadas por sistemas de IA sejam justas e transparentes. Dessa forma, entendemos que podemos aproveitar ao máximo seus benefícios, sem colocar em risco a reputação de empresas e de seus Clientes.

Marcelo Mendes Santos, gerente de TI CISO da NEO.

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.