NVIDIA e Hugging Face vão conectar desenvolvedores à supercomputação de IA generativa

0

A NVIDIA e a Hugging Face anunciam uma parceria que colocará a supercomputação de IA generativa ao alcance dos desenvolvedores que constroem grandes modelos de linguagem (LLMs) e outras aplicações avançadas de IA.

Fornecendo aos desenvolvedores acesso à supercomputação de IA NVIDIA DGX™ Cloud dentro da plataforma Hugging Face para treinar e ajustar modelos avançados de IA, a colaboração ajudará a turbinar a adoção da indústria de IA generativa usando LLMs personalizados com dados de negócios para aplicações específicas do setor, incluindo chatbots inteligentes, pesquisa e resumo.

"Pesquisadores e desenvolvedores estão no centro da IA generativa que está transformando todos os setores", diz Jensen Huang, fundador e CEO da NVIDIA. "A Hugging Face e a NVIDIA estão conectando a maior comunidade de IA do mundo com a plataforma de computação de IA da NVIDIA nas principais nuvens do mundo. Juntos, a computação de IA da NVIDIA está a apenas um clique de distância para a comunidade Hugging Face."

Como parte da colaboração, a Hugging Face oferecerá um novo serviço – chamado Training Cluster as a Service – para simplificar a criação de modelos de IA generativos novos e personalizados para a empresa. Com tecnologia NVIDIA DGX Cloud, o serviço estará disponível nos próximos meses.

A plataforma Hugging Face permite que os desenvolvedores criem, treinem e implantem modelos de IA de última geração usando recursos de código aberto. Mais de 15.000 organizações usam a Hugging Face e sua comunidade compartilhou mais de 250.000 modelos e 50.000 conjuntos de dados.

A integração do DGX Cloud com a Hugging Face trará acesso com um clique à plataforma de supercomputação de IA de vários nós da NVIDIA. Com a DGX Cloud, os usuários da Hugging Face poderão se conectar à supercomputação NVIDIA AI, fornecendo o software e a infraestrutura necessários para treinar e ajustar rapidamente os modelos de base com dados exclusivos para impulsionar uma nova onda de desenvolvimento empresarial de LLM. Com o Training Cluster as a Service, desenvolvido pela DGX Cloud, as empresas poderão aproveitar seus dados únicos para Hugging Face para criar modelos exclusivamente eficientes em tempo recorde.

Cada instância do DGX Cloud apresenta oito GPUs NVIDIA H100 ou A100 Tensor Core de 80 GB para um total de 640 GB de memória GPU por nó. O NVIDIA Networking fornece uma estrutura de alto desempenho e baixa latência que garante que as cargas de trabalho possam ser dimensionadas em clusters de sistemas interconectados para atender aos requisitos de desempenho de cargas de trabalho avançadas de IA.

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.