À medida que a inteligência artificial transforma indústrias em todo o mundo, o mercado de data centers no Brasil está se tornado um player chave nessa transformação. Atender as demandas da IA requer designs inovadores que equilibrem performance, escalabilidade e sustentabilidade. Esses requisitos vão além do stack de TI – as mesmas questões também impactam a infraestrutura digital crítica, exigindo alimentação de energia e resfriamento para a computação de alta performance. Os sites emergentes necessitam de resfriamento líquido para remover o calor no chip e dar conta de densidades de potência mais altas para dar suporte à computação. As aplicações incluem:
Treinamento, no qual modelos são construídos e expandidos com base em um conjunto de dados e informações, e
Inferência, na qual os modelos existentes geram uma resposta; por exemplo, queries de usuários.
Um estudo recente estimou que o treinamento e a implementação de modelos de IA generativa custarão US$ 76 bilhões até 2028. Até 2025, a geração de dados terá crescido mais do que 180 zetabytes (ZB), com o armazenamento de dados devendo crescer a uma taxa de crescimento anual composta (CAGR) de aproximadamente 20% em 5 anos, de acordo com a Statista. O IDC projeta ainda que os gastos globais com serviços de nuvem pública chegarão a US$ 1,35 trilhões até 2027, com também um CAGR de 20% para mesmo período. Esse crescimento rápido enfatiza a relação simbiótica entre a expansão da nuvem e ascensão das aplicações de IA. A escalabilidade do cloud computing é essencial para atender às demandas das cargas de trabalho da IA, as quais exigem cada vez mais infraestrutura de alta densidade, escalabilidade contínua e soluções inovadoras para o gerenciamento da energia. Para os data centers, essas tendências se traduzem em uma necessidade premente de adotar sistemas de resfriamento avançados, além de tecnologias de gerenciamento de energia escaláveis e designs modulares capazes de dar suporte às crescentes demandas dos ambientes orientados para IA.
A proliferação dos data centers brasileiros
Atualmente, existem 146 data centers no Brasil (Data Center Map). De acordo com relatório sobre os data centers no Brasil da JLL, a quantidade de data centers no país cresceu 628% entre 2013 e 2023.
À medida que essa expansão continua, tornou-se essencial projetar expansões dos data centers existentes ou construir novos sites de forma flexível, acolhendo novas tecnologias e desenvolvimentos energeticamente eficientes e altamente disponíveis. Há diversas razões para essa mudança.
IA e Demanda de Energia
De acordo com um estudo da Goldman Sachs, uma consulta no ChatGPT, que utiliza um extenso banco de dados, pode consumir 10 vezes mais energia do que uma busca no Google. A proliferação da IA e o consequente aumento na demanda por energia representam um desafio para as empresas que buscam aumentar a eficiência e limitar o impacto ambiental.
Embora as inovações estejam em andamento, já existem tecnologias de energia e refrigeração que oferecem disponibilidade e eficiência energética para o data center da era da IA, preparadas tanto para o presente quanto para o futuro:
Baterias de UPS: Avanços na tecnologia de baterias podem ser uma ferramenta estratégica para melhorar a densidade de potência e a estabilidade térmica de uma instalação de IA. Além da popular e energeticamente eficiente tecnologia das baterias de íon-lítio, as relativamente novatas baterias de níquel-Zinco (NiZn) fornecem densidade de potência líder na indústria e operam em uma faixa mais ampla de temperaturas – sem o risco de fuga térmica. Isso explica por que o mercado de baterias recarregáveis de níquel-zinco está projetado para crescer a uma taxa composta anual (CAGR) de 24,4% entre 2024 e 2030.
Sistemas de resfriamento líquido direto (DLC): De acordo com o Relatório de julho de 2024 da Dell'Oro, intitulado Data Center Liquid Cooling, o mercado global de resfriamento líquido para data centers era de US$ 745 milhões em 2023 e deve chegar a mais de US$ 3 bilhões até 2026. Um sistema de resfriamento líquido direto ao chip lembra um rack padrão, mas inclui um manifold para distribuir líquido para os equipamentos de TI (ITE). Isso se aplica a servidores, roteadores e outros dispositivos habilitados para resfriamento direto ao chip. Entretanto, tanques horizontais substituem o design padrão de rack em um sistema de resfriamento por imersão. Nesse design de data center, o ITE é imerso em um líquido ou fluído dielétrico condutor térmico (um fluido que não seja condutor elétrico). A performance térmica superior dos líquidos em comparação com o ar garante que as credenciais de sustentabilidade do data center aumentem significativamente. O resfriamento líquido direto demanda racks PDUs de alta densidade, racks robustos – críticos para dar suporte ao peso do ITE maior – e fluido nos racks. Unidades de distribuição de líquido (CDUs) no rack são uma opção possível, dependendo da aplicação.
Data centers modulares: Outra estratégia a ser considerada ao projetar futuros data centers é o uso de data centers modulares pré-fabricados, focando na escalabilidade e na velocidade da implementação. Isso inclui construir data centers em blocos de construção menores, começando a operar com o que já está em funcionamento enquanto se investe na construção do próximo módulo. Pesquisa da Omdia mostra que a receita das instalações modulares chegou a aproximadamente US$ 4,8 bilhões em 2023. Os data centers modulares devem crescer a uma média de 22% anualmente até 2026, projetando um mercado de US$ 8,8 bilhões. Essa estratégia reduz o investimento inicial e minimiza o tempo que leva para gerar receita. Data centers tradicionais de alvenaria levam de 18 meses a 2 anos para estarem em funcionamento. Com um data center modular, é possível reduzir o tempo de design, fabricação e implementação deste site.
A economia digital brasileira e os data centers locais estão à beira de uma nova era de transformação. Com a ascensão da IA, este momento está repleto de oportunidades, mas também traz novos desafios. Diversas empresas estão trabalhando para adicionar capacidade de IA em operações existentes, enquanto quem está planejando novas instalações avalia quanta capacidade de IA deve ser integrada em seus projetos. Simplificar este processo exige que se trabalhe em colaboração com líderes no desenvolvimento de IA que se destacam por sua comprovada expertise nesta área.
Isso requer não apenas tecnologia avançada, mas também um parceiro com uma compreensão abrangente de toda a cadeia de energia e de gestão térmica. São equipes com a capacidade de orientar operadores de forma que mantenham a continuidade operacional e lidem com as necessidades de manutenção em longo prazo. Trabalhar em colaboração desde o planejamento até o final do ciclo de vida dos equipamentos pode ajudar a criar modelos de infraestrutura adaptáveis, alinhados com as melhores práticas da indústria. Isso é crítico para posicionar os data centers do Brasil como líderes globais no processamento de IA até o final da década.
Alex Sasaki, Vice-Presidente da Vertiv na América Latina.