Utilizando o Chat-GPT de forma segura: Um Guia Lógico

0

O uso do Chat-GPT, especialmente em áreas de domínio e expertise, pode levar os usuários a perceberem que, em algumas situações, ele fornece respostas incorretas ou parcialmente precisas, embora apresente um português relativamente bem escrito. É importante ressaltar que essa característica não é exclusiva do Chat-GPT, ocorrendo também com outras ferramentas de LLM (Large Language Model), como o Bard do Google.

É fundamental compreender que os sistemas LLMs podem, de fato, oferecer respostas incorretas, e esse aspecto não é temporário ou sujeito a ajustes, pelo menos com a tecnologia atual. O Chat-GPT, assim como qualquer outro algoritmo ou sistema de IA, é um algoritmo preditivo, com a função de antecipar as próximas palavras em uma sequência. Em outras palavras, ele utiliza relações estatísticas entre as palavras inseridas para predizer as próximas palavras. "Predizer", nesse contexto, significa fazer uma previsão com base em cálculos matemáticos. Portanto, os LLMs são algoritmos capazes de produzir textos longos, coesos e consistentes, porém, do ponto de vista linguístico e textual. No entanto, é crucial ressaltar que prever palavras é muito diferente de prever a verdade, o correto ou o incorreto.

Assim sendo, embora extremamente poderoso e funcional, com o potencial de auxiliar consideravelmente em diversas tarefas, o Chat-GPT não deve ser visto como um oráculo detentor de um conhecimento infinito e indubitável.

Diante desse cenário, como podemos determinar se é seguro utilizar o Chat-GPT em nossas tarefas, sejam elas acadêmicas, pessoais ou profissionais?

Para responder a essa pergunta, proponho uma abordagem lógica com três questionamentos que podem ajudar as pessoas a chegarem a uma resposta. São eles:

  1. Os dados que você pretende inserir na ferramenta são sensíveis, confidenciais, restritos e/ou a divulgação pode violar algum aspecto da lei de proteção de dados ou qualquer manual de boas práticas e códigos de conduta de sua organização?
  2. A veracidade da resposta é crucial para o seu contexto?
  3. Você possui a expertise necessária para verificar a precisão da resposta?

Explicarei cada ponto.

Se a resposta à primeira pergunta, "Os dados que você pretende inserir na ferramenta são sensíveis, confidenciais, restritos e/ou a divulgação pode violar algum aspecto da lei de proteção de dados ou qualquer manual de boas práticas e códigos de conduta de sua organização?", for "sim", obviamente estamos diante de um cenário em que o uso da ferramenta não é seguro, pelo menos não em sua versão aberta. Porém, se a resposta for "não", podemos passar para a segunda pergunta.

Se a resposta à segunda pergunta for "não", indicando que a veracidade da resposta não é crucial para a tarefa, então estamos diante de uma situação em que o Chat-GPT pode ser usado com segurança. Você pode estar se perguntando: "Em quais situações a veracidade da resposta não é crucial?". Isso se aplica a muitos cenários, como atividades de brainstorming, ideação, simulações em geral, por exemplo, a simulação de entrevistas em que você solicita ao Chat-GPT que atue como entrevistador ou entrevistado, ou na criação de textos de ficção científica, entre outros.

No entanto, se a resposta à segunda pergunta for "Sim, a veracidade da resposta é crucial", então é necessário avançar para a terceira pergunta: "Você possui a expertise necessária para avaliar a precisão da resposta?". Se a resposta for "não", isso indica que o uso da ferramenta é pouco seguro, dado que as respostas podem conter diferentes tipos de erros. Por outro lado, se a resposta for "sim, possuo a expertise necessária para verificar a precisão da resposta", então podemos considerar o uso da ferramenta como seguro, pois você pode avaliar a assertividade da resposta.

Essa abordagem lógica auxilia significativamente na reflexão sobre quais tarefas o Chat-GPT e outros modelos de LLM podem ajudar, proporcionando maior eficiência e produtividade, algo muito valorizado pelas organizações. Fica evidente que o pensamento crítico humano é essencial nesse cenário de crescente presença das ferramentas de IA, tornando-se uma habilidade crucial para o futuro, como destacado no relatório "The Future of Jobs" do Fórum Econômico Mundial, de maio de 2023, que aponta o pensamento crítico como a competência número um do futuro.

Adriano Mussa, Ph.D, Pós Doutor em Educação e Inteligência Artificial pela Universidade de Columbia (NY), Diretor Acadêmico e de Inteligência Artificial da Saint Paul e do LIT.

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.