Por que as Big Techs estão competindo por modelos de IA cada vez maiores?

0

Se você acompanha as notícias do universo Tech e principalmente os anúncios realizados nos eventos de lançamento das Big Techs você deve ter reparado uma coisa em comum: cada uma delas busca a sua maneira de contar para o mundo o tamanho do seu modelo de IA.

Algumas fazem isso com imagens, comparando o modelo anterior com o mais recente e mostrando que, em termos de tamanho, a anterior mais se parecia com uma formiga perto do que agora é representado como uma baleia. Outras preferem usar a lógica da performance: "o meu modelo é 4x mais poderoso que o da concorrente".

Se pegarmos a evolução do gpt-3 para o gpt-4, por exemplo, estamos falando de um modelo que passou de 175 bilhões de parâmetros para 170 trilhões. Agora, está claro para você o que faz com que as Big techs querem tanto buscar modelos cada vez maiores?

As razões óbvias

O ano era 2016 quando o então cofundador da DeepMind, Mustafa Suleyman, inscreveu o modelo de IA desenvolvido por ele e sua equipe em um campeonato de Go, um jogo de estratégia milenar, complexo e muito popular em países da ásia. Após vencer as primeiras partidas e avançar à final contra o atual campeão mundial, Lee Sedol, a equipe jurava que na grande decisão o algoritmo tinha cometido um erro. A estratégia adotada não parecia fazer sentido no início, ninguém tinha visto aqueles movimentos e escolhas antes. Mas, o modelo chamado AlphaGo venceu e o que a equipe presenciou foi um dos primeiros casos do que o aprendizado de máquina era capaz de fazer. Treinado com dados de mais de 150 mil partidas, o modelo foi capaz de criar uma nova estratégia vencedora por conta própria.

A história recente mostra que modelos de IA capazes de processar mais dados e considerar mais parâmetros simultaneamente resultam em capacidades mais impressionantes. Dentre os ganhos esperados, os mais recorrentes são:

  1. Performance: modelos maiores têm demonstrado maior capacidade de desempenhar tarefas complexas de processamento de linguagem natural e geração de conteúdos. Sabe aquele momento em que você obtém uma resposta do chat GPT que faz você pensar "caramba, será que eu conseguiria responder isso de forma melhor?" – essa percepção tende a crescer conforme os modelos avançam.

  2. Generalização: quanto maior a quantidade de parâmetros e dados, maior tende a ser a capacidade da inteligência artificial adaptar sua aplicabilidade e geração de valor a mais contextos e mercados. O que vamos combinar que, do ponto de vista de negócios, é uma maravilha para os proprietários dessas IAs.

  3. Acurácia: a cada atualização não existe descarte das capacidades do modelo anterior. Isso significa que um modelo que já tinha a capacidade de fazer previsões com base em dados, analisar cenários, gerar conteúdos e outras atividades passaria a fazer tudo isso com muito mais precisão e eficiência. A iteração é parte fundamental do processo de evolução dos principais modelos de IA no mundo todo e, de novo, quanto mais dados e parâmetros, mais superpoderes.

  4. Capacidade de inovação: modelos gigantescos abrem portas para inovações tecnológicas disruptivas, como interfaces conversacionais mais naturais, simulação de ambientes virtuais e até mesmo pesquisa científica assistida por IA.

O que nos espera mais adiante

Como já mencionou Silvio Meira – cientista, professor e empreendedor brasileiro referência em engenharia e inovação – "estamos vivendo a era da pedra lascada da IA e o futuro chega em 800 dias."

As capacidades de IAs como chat GPT, Sora, Gemini, Luma e outras impressionam? Claro que sim, mas essa não é nem de longe a linha de chegada imaginada pelas pessoas e empresas que estão liderando esse movimento. Vamos voltar aos parâmetros e ao que a história recente nos mostra?

Há uma hipótese, ainda não validada (não que saibamos pelo menos), de que é possível atingirmos uma combinação de volume de dados processados e parâmetros capazes de atingir o que a turma tech gosta de chamar de AGI (Artificial General Intelligence) – ou, Inteligência Artificial Geral. Apesar da semelhança fonética com a IA Generativa, esse "estágio" da IA não representa respostas mais precisas geradas pelo chat GPT ou vídeos mais realistas gerados com poucas linhas de prompt. É nesse momento em que a IA poderia ganhar o que chamam no exterior de "human-like intelligence", a capacidade de aprender e desempenhar tarefas tal como a inteligência humana é capaz de fazer.

Capacidade de abstração, cruzar bases de conhecimento entre áreas, desenvolvimento de raciocínios complexos e completos, criação de soluções ainda não encontradas, tudo isso pode ser fruto de um modelo capaz de aprender e atuar tal como nós, seres humanos, fazemos. É nesse momento que os impactos para a sociedade e para os negócios aumentam exponencialmente. Por isso, veremos a corrida das Big techs para desenvolver modelos maiores e mais complexos avançar de forma acelerada, por isso a computação quântica e o mercado de chips para processamento de dados cresce e continuará crescendo.

O cérebro humano tem aproximadamente 57 milhões de células e 150 milhões de conexões neurais. Quantos parâmetros serão necessários para a IA alcançar uma capacidade semelhante? Eu particularmente não sei. Mas não dá pra duvidar que em breve podemos ter essa resposta, muito menos esperar que esse momento chegue para que a gente comece a discutir e endereçar os impactos na sociedade, na economia e em tantas outras esferas da nossa vida.

Caio Laurino, cofundador e CIO da Maitha Tech.

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.