Em tempos de computação em nuvem e big data, em que a quantidade de dados não estruturados, como vídeos, áudios e textos, provenientes das mais variadas fontes, aumenta em escala geométrica, o reinado da CPU como a unidade principal responsável pelo processamento das informações está com os dias contados. Cada vez mais ela terá que dividir suas funções com GPUs potentes (unidades de processamento gráfico) para atender a demanda de profissionais que atuam em empresas de manufatura, engenharia, saúde, arquitetura e mídia e entretenimento.
A análise é de Marcio Aguiar, gerente de vendas Enterprise para América Latina da Nvidia, ao observar que as GPUs aceleram fluxos de trabalho com demandas exigentes nas áreas de computação gráfica, por exemplo. Elas também são indispensáveis para acelerar aplicativos científicos, de análise, engenharia e corporativos. Ele cita produtos que usamos todos os dias, como carros, e até mesmo edifícios em que vivemos. "Para que esses projetos, que exigem renderização, sejam desenvolvidos corretamente, precisamos de GPUs muito rápidas."
A GPU funciona como uma espécie de CPU auxiliar e sua função é encarregar-se de tarefas complexas, como cálculos matemáticos, renderização de gráficos 3D e efeitos visuais, por exemplo. Dessa forma, ela desonera a carga de trabalho da CPU principal, que pode dedicar seu desempenho para atividades mais específicas.
"Com os adventos da computação em nuvem e big data, o acúmulo de diversas funções numa única CPU, como ainda é bastante comum, acarreta em baixo desempenho e produtividade", afirma Aguiar. "Hoje, GPUs poderosas cada vez mais são necessárias, principalmente para tarefas que utilizam gráficos de forma intensiva, como edição de vídeo ou cálculos matemáticos complexos."
É exatamente este panorama que tem levado a Nvidia a investir pesadamente no desenvolvimento de plataformas e GPUs poderosas, capazes de processar dados em alta velocidade, já que a cada segundo muitos dados novos são criados na internet. No ano fiscal de 2014, por exemplo, a fabricante de placas gráficas investiu US$ 340 milhões em pesquisa e desenvolvimento (P&D), o que representou um aumento de cerca de 10% em relação ao exercício anterior. Somente no primeiro trimestre do ano fiscal de 2015, encerrado em janeiro, o orçamento para P&D cresceu 2,3%, totalizando US$ 348 milhões.
Quase a totalidade desses recursos tem sido destinada a concepção de novos processadores gráficos, de maior potência e capacidade de processamento, e, agora, ao desenvolvimento de plataformas de deep learning (conceito derivado do uso de redes neurais para aplicações de inteligência artificial e aprendizado de máquina), a grande aposta da Nvidia, inclusive para ganhar mercado da Intel.
Universidades e OEMs
A ideia é estabelecer uma espécie de "ruptura" no conceito de processador e, num futuro próximo, tornar essas soluções comuns nos computadores convencionais. Para atingir esse objetivo, Aguiar conta que a empresa começou a fazer um mapeamento do mercado, inclusive no Brasil, para realizar um trabalho de difusão junto a setores-chave, como financeiro e de óleo e gás, e também com o propósito de estreitar o relacionamento com laboratórios de deep learning.
"Agora vamos desenvolver um trabalho mais forte também junto às universidades", adianta Aguiar, citado como exemplo no país o Laboratório de Visão Computacional e Robótica (LVCR), ligado à Universidade Federal de Minas Gerais (UFMG), e o Laboratório de Deep Learning, da Universidade Federal do Espírito Santo. A estratégia, segundo o executivo, é atingir primeiramente a base de clientes da companhia que já utiliza a plataforma da empresa, como Petrobras e Rede Globo. As duas empresas já são usuárias do Tesla K40, acelerador de GPU, utilizado por vários fabricantes de equipamentos (OEMs).
Atualmente, uma extensa lista de OEMs, que inclui Asus, Cray, Dell, HP, IBM, SGI, entre outras, utilizam GPUs da Nvidia em seus servidores e workstations. No ano passado, por exemplo, a companhia anunciou um acordo com a IBM para construírem um novo supercomputador que deve ser o mais rápido do mundo, previsto para atingir 150 petaflops de capacidade de processamento. Ele será equipado com processadores Power8, da IBM, e com as novas GPUs da Nvidia, inclusive as lançadas está semana na GPU Technology Conference (GTC 2015), encontro anual de desenvolvedores da empresa, em San Jose, na Califórnia.
Faz parte da estratégia da Nvidia atacar também empresas de serviços de data center para a oferta de GPUs no modelo "as a Service", já que o potencial de mercado para GPUs atualmente como bastante promissor. "Para se ter uma ideia, até quatro anos atrás, o mercado de computação numérica não usava GPUs", observa Aguiar.
Segundo o executivo, o novo portfólio de soluções apresentado durante a GTC 2015 (que abrange desde a nova GPU Titan X, a Digtis DevBox, máquina para a pesquisa e desenvolvimento de deep learning, a GPU de última geração Pascal, o Nvidia Drive PX até o software de renderização Iray 2015 e a Quadro M6000, a mais poderosa GPU profissional da empresa) visa fornecer aos OEMs recursos para que possam potencializar a capacidade de seus servidores e workstations, utilizando a arquitetura de hardware já existente, e atender o perfil de cada cliente.
*O jornalista viajou a San Jose (EUA) a convite da empresa.