Se você acompanha as notícias do universo Tech e principalmente os anúncios realizados nos eventos de lançamento das Big Techs você deve ter reparado uma coisa em comum: cada uma delas busca a sua maneira de contar para o mundo o tamanho do seu modelo de IA.
Algumas fazem isso com imagens, comparando o modelo anterior com o mais recente e mostrando que, em termos de tamanho, a anterior mais se parecia com uma formiga perto do que agora é representado como uma baleia. Outras preferem usar a lógica da performance: "o meu modelo é 4x mais poderoso que o da concorrente".
Se pegarmos a evolução do gpt-3 para o gpt-4, por exemplo, estamos falando de um modelo que passou de 175 bilhões de parâmetros para 170 trilhões. Agora, está claro para você o que faz com que as Big techs querem tanto buscar modelos cada vez maiores?
As razões óbvias
O ano era 2016 quando o então cofundador da DeepMind, Mustafa Suleyman, inscreveu o modelo de IA desenvolvido por ele e sua equipe em um campeonato de Go, um jogo de estratégia milenar, complexo e muito popular em países da ásia. Após vencer as primeiras partidas e avançar à final contra o atual campeão mundial, Lee Sedol, a equipe jurava que na grande decisão o algoritmo tinha cometido um erro. A estratégia adotada não parecia fazer sentido no início, ninguém tinha visto aqueles movimentos e escolhas antes. Mas, o modelo chamado AlphaGo venceu e o que a equipe presenciou foi um dos primeiros casos do que o aprendizado de máquina era capaz de fazer. Treinado com dados de mais de 150 mil partidas, o modelo foi capaz de criar uma nova estratégia vencedora por conta própria.
A história recente mostra que modelos de IA capazes de processar mais dados e considerar mais parâmetros simultaneamente resultam em capacidades mais impressionantes. Dentre os ganhos esperados, os mais recorrentes são:
-
Performance: modelos maiores têm demonstrado maior capacidade de desempenhar tarefas complexas de processamento de linguagem natural e geração de conteúdos. Sabe aquele momento em que você obtém uma resposta do chat GPT que faz você pensar "caramba, será que eu conseguiria responder isso de forma melhor?" – essa percepção tende a crescer conforme os modelos avançam.
-
Generalização: quanto maior a quantidade de parâmetros e dados, maior tende a ser a capacidade da inteligência artificial adaptar sua aplicabilidade e geração de valor a mais contextos e mercados. O que vamos combinar que, do ponto de vista de negócios, é uma maravilha para os proprietários dessas IAs.
-
Acurácia: a cada atualização não existe descarte das capacidades do modelo anterior. Isso significa que um modelo que já tinha a capacidade de fazer previsões com base em dados, analisar cenários, gerar conteúdos e outras atividades passaria a fazer tudo isso com muito mais precisão e eficiência. A iteração é parte fundamental do processo de evolução dos principais modelos de IA no mundo todo e, de novo, quanto mais dados e parâmetros, mais superpoderes.
-
Capacidade de inovação: modelos gigantescos abrem portas para inovações tecnológicas disruptivas, como interfaces conversacionais mais naturais, simulação de ambientes virtuais e até mesmo pesquisa científica assistida por IA.
O que nos espera mais adiante
Como já mencionou Silvio Meira – cientista, professor e empreendedor brasileiro referência em engenharia e inovação – "estamos vivendo a era da pedra lascada da IA e o futuro chega em 800 dias."
As capacidades de IAs como chat GPT, Sora, Gemini, Luma e outras impressionam? Claro que sim, mas essa não é nem de longe a linha de chegada imaginada pelas pessoas e empresas que estão liderando esse movimento. Vamos voltar aos parâmetros e ao que a história recente nos mostra?
Há uma hipótese, ainda não validada (não que saibamos pelo menos), de que é possível atingirmos uma combinação de volume de dados processados e parâmetros capazes de atingir o que a turma tech gosta de chamar de AGI (Artificial General Intelligence) – ou, Inteligência Artificial Geral. Apesar da semelhança fonética com a IA Generativa, esse "estágio" da IA não representa respostas mais precisas geradas pelo chat GPT ou vídeos mais realistas gerados com poucas linhas de prompt. É nesse momento em que a IA poderia ganhar o que chamam no exterior de "human-like intelligence", a capacidade de aprender e desempenhar tarefas tal como a inteligência humana é capaz de fazer.
Capacidade de abstração, cruzar bases de conhecimento entre áreas, desenvolvimento de raciocínios complexos e completos, criação de soluções ainda não encontradas, tudo isso pode ser fruto de um modelo capaz de aprender e atuar tal como nós, seres humanos, fazemos. É nesse momento que os impactos para a sociedade e para os negócios aumentam exponencialmente. Por isso, veremos a corrida das Big techs para desenvolver modelos maiores e mais complexos avançar de forma acelerada, por isso a computação quântica e o mercado de chips para processamento de dados cresce e continuará crescendo.
O cérebro humano tem aproximadamente 57 milhões de células e 150 milhões de conexões neurais. Quantos parâmetros serão necessários para a IA alcançar uma capacidade semelhante? Eu particularmente não sei. Mas não dá pra duvidar que em breve podemos ter essa resposta, muito menos esperar que esse momento chegue para que a gente comece a discutir e endereçar os impactos na sociedade, na economia e em tantas outras esferas da nossa vida.
Caio Laurino, cofundador e CIO da Maitha Tech.