A Hewlett Packard Enterprise apresentou um computador de memória única como um marco no projeto de pesquisa The Machine, que é o maior programa de P&D da história da empresa e tem como objetivo criar um novo paradigma chamado de computação centrada em memória — uma arquitetura customizada para a era do Big Data.
O protótipo contém 160 terabytes (TB) de memória, o que lhe permite trabalhar simultaneamente com os dados contidos em cinco vezes o total de livros da Biblioteca do Congresso Norte Americano — ou seja, cerca de 160 milhões de livros. Jamais havia sido possível armazenar e manipular conjuntos de dados inteiros desse tamanho em um sistema de memória única, e isso é apenas um vislumbre do imenso potencial da computação centrada em memória.
Capacidade
Com base no protótipo atual, a HPE espera que a arquitetura possa facilmente ser expandida para um sistema de memória única na escala dos exabytes e, além disso, para um pool quase ilimitado de memória — 4.096 yottabytes. De forma contextualizada, isso equivale a 1.000 vezes todo o universo digital existente hoje no mundo.
Com essa quantidade de memória, é possível trabalhar com todos os registros digitais de saúde de todas as pessoas do mundo, todos os dados do Facebook, todas as viagens dos veículos autônomos do Google e todos os conjuntos de dados de exploração espacial ao mesmo tempo — obtendo respostas e descobrindo novas oportunidades em uma velocidade sem precedentes.
A computação centrada em memória coloca a memória, e não o processador, no centro da arquitetura de computação. Eliminando as ineficiências na forma como a memória, o armazenamento e os processadores interagem hoje nos sistemas tradicionais, a computação centrada em memória reduz o tempo necessário para processar problemas complexos de dias para horas, de horas para minutos e de minutos para segundos — para fornecer inteligência em tempo real.