Assim como em 2023, o ano de 2024 promete ser novamente marcado pela IA Generativa, todo o seu avanço, e discussões com relação a sua regulamentação. Durante o último ano foram inúmeras aplicações demonstradas pela ferramenta, principalmente na produção textual, de voz, e de imagem. Contudo, junto de todo esse avanço, vem o mau uso da tecnologia.
Com relação as ferramentas de produção textuais, o ChatGPT se destaca entre elas, sendo inclusive a ferramenta de IA mais utilizada no ano passado, totalizando 14.4 bilhões de acessos. Desse modo, a sua rápida expansão preocupa a diversos especialistas, Jianyang Deng, pesquisador da Universidade de Macao, alertou em um artigo sobre a capacidade do ChatGPT de gerar texto semelhante ao humano aumentando o risco de falsificação e roubo de identidade.
Outra preocupação surgiu em um estudo conjunto realizado por pesquisadores da Google DeepMind, Universidade de Washington, Cornell, CMU, UC Berkeley e ETH Zurique identificou uma preocupante vulnerabilidade de segurança no ChatGPT. A pesquisa revelou que, ao simples pedido de repetição de uma palavra, o modelo pode inadvertidamente divulgar informações pessoais.
Além disso, a IA Generativa se mostrou extremamente capaz de gerar áudios e vídeos cada vez mais precisos, tornando-os difíceis de identificar se foram gerados por um computador ou pelo próprio usuário.
Muitas dessas aplicações poderiam ser ferramentas poderosas e muito perigosas nas mãos erradas, pensando nisso, a TI Inside convidou dois especialistas no tema para debater o assunto, Danilo Barsotti, CTO da idwall, e Luiz Ohara Head of Financial Markets da Semantix. Confira a entrevista completa: