Amazon Web Services (AWS) anunciou três novas instâncias do Amazon Elastic Compute Cloud (Amazon EC2) com três novos chips projetados pela AWS que oferecem aos clientes um desempenho computacional ainda maior a um custo mais baixo para uma ampla variedade de cargas de trabalho.
As instâncias Hpc7g, equipadas com os novos chips AWS Graviton3E, oferecem até o dobro de desempenho de ponto flutuante em comparação à geração atual das instâncias C6gn e até 20% mais desempenho em comparação à geração atual das instâncias Hpc6a, proporcionando o melhor custo-benefício para cargas de trabalho de computação de alto desempenho (HPC) na AWS.
As instâncias C7gn, equipadas com os novos AWS Nitro Cards, oferecem até o dobro de largura de banda de rede e o dobro de desempenho de pacotes por segundo por CPU em comparação à geração atual de instâncias otimizadas para rede, proporcionando a maior largura de banda de rede, o mais alto desempenho de taxa de pacotes e o melhor custo-benefício para redes com cargas de trabalho intensas. As instâncias Inf2, equipadas com os novos chips AWS Inferentia2, foram desenvolvidas especificamente para executar os maiores modelos de deep learning com até 175 bilhões de parâmetros e oferecem até 4x mais produtividade e até 10x menos latência em comparação à geração atual das instâncias Inf1, proporcionando a menor latência ao custo mais baixo para inferências de machine learning (ML) no Amazon EC2.
A AWS tem uma década de experiência no projeto de chips desenvolvidos para desempenho e escalabilidade na nuvem a um custo mais baixo. Ao longo desse período, a AWS lançou modelos de chips especializados, possibilitando que os clientes executassem cargas de trabalho ainda mais pesadas com características variadas que requerem processamento mais rápido, mais capacidade de memória, mais agilidade de entrada e saída de armazenamento e maior largura de banda de rede. Desde o lançamento do AWS Nitro System em 2013, a AWS já desenvolveu diversas inovações próprias em chips, dentre as quais estão cinco gerações do Nitro System, três gerações dos chips Graviton com otimização de desempenho e de custo para uma ampla variedade de cargas de trabalho, duas gerações de chips Inferentia para inferências de machine learning, e chips Trainium para treinamento de machine learning. A AWS usa automação de design eletrônico baseada em nuvem como parte de um ciclo de desenvolvimento ágil para o design e verificação de chips projetados pela AWS, possibilitando que as equipes inovem com mais rapidez e disponibilizem os chips para os clientes em menos tempo. A AWS consegue disponibilizar um novo chip baseando-se em um processo mais moderno e maior eficiência energética, a um ritmo previsível e acelerado. A cada novo chip, a AWS dá um passo à frente em desempenho, redução de custo e melhoria de eficiência para as instâncias do Amazon EC2 a que atendem, dando aos clientes ainda mais opções de combinações de chips e instâncias otimizadas para as necessidades específicas de suas cargas de trabalho.
"Cada geração de chips e placas projetados pela AWS, dos chips Graviton aos Trainium, dos chips Inferentia aos AWS Nitro Cards, oferecem níveis cada vez mais altos de desempenho, custos mais baixos e maior eficiência energética para uma gama de cargas de trabalho dos clientes", explica David Brown, vice-presidente do Amazon EC2 da AWS. "A regularidade desses resultados, combinada à capacidade de os nossos clientes conquistarem um custo-benefício ainda melhor por usarem os chips da AWS, nos estimula a continuar inovando. As instâncias do Amazon EC2 que estamos lançando hoje trazem melhorias significativas para HPC, cargas de trabalho de uso intenso da rede e de inferências de machine learning, oferecendo aos clientes ainda mais opções de instâncias para suas necessidades específicas."
As instâncias Hpc7g foram desenvolvidas especificamente para oferecer o melhor custo-benefício para executar cargas de trabalho de HCP em larga escala no Amazon EC2.