O Brasil teve recordes de calor nas últimas semanas. Em fevereiro de 2025, o Brasil, especialmente a Região Sul, enfrentou uma onda de calor sem precedentes, com temperaturas atingindo a casa dos 43,8°C e índices de calor ultrapassando 50°C. O avanço da inteligência artificial (IA) está revolucionando a infraestrutura de TI, mas também gerando um desafio crescente: o superaquecimento dos data centers e servidores.
À medida que a demanda por processamento de alto desempenho aumenta, impulsionada por modelos de IA cada vez mais complexos, as empresas precisam repensar suas estratégias para lidar com o calor gerado por essas operações intensivas.
As altas temperaturas podem sobrecarregar os sistemas de resfriamento dos data centers. Em julho de 2022, durante uma onda de calor no Reino Unido, data centers de empresas como Google e Oracle enfrentaram falhas nos sistemas de refrigeração, levando à interrupção temporária de serviços.
A explosão do consumo energético
A crescente densidade de equipamentos nos data centers modernos, impulsionada pelo adoção exponencial da IA, é um ponto de preocupação. Modelos como os de aprendizado profundo exigem milhares de GPUs e TPUs trabalhando simultaneamente, consumindo enormes quantidades de energia elétrica e dissipando calor em níveis inéditos. De acordo com a International Energy Agency (IEA), os data centers consumiram aproximadamente 240 a 340 terawatts-hora (TWh) de eletricidade em 2022, representando cerca de 1% a 1,3% da demanda elétrica global. A crescente demanda por IA e serviços digitais está levando a um aumento significativo no número e tamanho dos data centers, o que, por sua vez, eleva o consumo de eletricidade. Embora melhorias contínuas em eficiência energética estejam sendo implementadas, a expansão rápida desses serviços sugere que o consumo de energia dos data centers continuará a crescer nos próximos anos.
"Ondas de calor já eram um problema relevante antes mesmo da adoção de IA em larga escala, o que significa que agora o impacto dessas temperaturas extremas pode ser devastador se não houver estratégias adequadas de mitigação", explica o especialista em infraestrutura de data centers Rafael Oneda, que é diretor de Tecnologia da Approach, integradora de soluções de TI para cibersegurança, conectividade e data center. "Métodos tradicionais de resfriamento muitas vezes se mostram insuficientes para lidar com as demandas atuais. Como resultado, é preciso buscar soluções de resfriamento de alta eficiência que possam operar de forma sustentável mesmo durante ondas de calor."
O impacto da eficiência energética no futuro da IA
O ChatGPT, a mais popular das IAs generativas, gasta cerca de uma garrafa d'água para gerar um único e-mail com 100 palavras, além de consumir 0,14 kWh, o equivalente ao necessário para manter 14 lâmpadas de LED acesas por uma hora. Os dados foram obtidos em uma pesquisa divulgada pelo The Washington Post (renomado jornal americano) em parceria com pesquisadores da Universidade da Califórnia (EUA), que tentou quantificar a água e a eletricidade gastas por esses chatbots que funcionam com inteligência artificial. Além das soluções técnicas, a busca por maior eficiência no processamento é um fator-chave para equilibrar a relação entre IA e infraestrutura de TI.
O que o futuro nos reserva?
A Microsoft anunciou recentemente o Majorana 1, um chip quântico inovador que utiliza uma nova arquitetura de Núcleo Topológico. Este avanço promete acelerar significativamente o desenvolvimento de computadores quânticos capazes de resolver problemas complexos em escala industrial em anos, e não décadas. A introdução do Majorana 1 tem o potencial de reduzir a carga de trabalho dos data centers tradicionais em um futuro ainda incerto. Isso certamente resultará em menor consumo de energia e, consequentemente, em uma redução importante da geração de calor. Além disso, a eficiência aprimorada pode mitigar os desafios associados ao resfriamento das instalações, especialmente durante períodos de calor extremo.