NVIDIA e Google Cloud colaboram para acelerar o desenvolvimento de IA

  • Quinta, 25th Abril, 2024
  • 07:15am

Milhares de startups para obter ajuda para construir rapidamente aplicações e serviços generativos de IA.

NVIDIA e Google Cloud anunciaram uma nova colaboração para ajudar startups em todo o mundo a acelerar a criação de aplicações e serviços generativos de IA.

O anúncio, feito hoje no Google Cloud Next '24 em Las Vegas, reúne o programa NVIDIA Inception para startups e o programa Google for Startups Cloud para ampliar o acesso a créditos de nuvem, suporte de entrada no mercado e conhecimento técnico para ajudar as startups a entregar valor para os clientes mais rapidamente.

Os membros qualificados do NVIDIA Inception, um programa global que apoia mais de 18.000 startups, terão um caminho acelerado para usar a infraestrutura do Google Cloud com acesso a créditos do Google Cloud – até US$ 350.000 para aqueles focados em IA.

Os membros do programa Google for Startups Cloud podem ingressar no NVIDIA Inception e obter acesso a conhecimentos tecnológicos, créditos de cursos do NVIDIA Deep Learning Institute , hardware e software NVIDIA e muito mais. Os membros qualificados do programa Google for Startups Cloud também podem participar do NVIDIA Inception Capital Connect, uma plataforma que oferece às startups exposição a empresas de capital de risco interessadas no espaço.

Os fabricantes de software emergentes de alto crescimento de ambos os programas também podem obter integração rápida no Google Cloud Marketplace, marketing conjunto e suporte para aceleração de produtos.

Esta colaboração é a mais recente de uma série de anúncios que as duas empresas fizeram para ajudar a aliviar os custos e as barreiras associadas ao desenvolvimento de aplicações generativas de IA para empresas de todos os tamanhos. As startups, em particular, são limitadas pelos elevados custos associados aos investimentos em IA.

É necessária uma plataforma de IA Full Stack

Em fevereiro, o Google DeepMind revelou Gemma , uma família de modelos abertos de última geração. A NVIDIA, em colaboração com o Google, lançou recentemente otimizações em todas as plataformas de IA da NVIDIA para Gemma , ajudando a reduzir os custos do cliente e a acelerar o trabalho inovador para casos de uso específicos de domínio.

As equipes das empresas trabalharam em estreita colaboração para acelerar o desempenho do Gemma — construído a partir da mesma pesquisa e tecnologia usada para criar o modelo mais capaz do Google DeepMind, o Gemini — com NVIDIA TensorRT-LLM , uma biblioteca de código aberto para otimizar a inferência de modelos de linguagem grande , ao executar em GPUs NVIDIA.

Os microsserviços NVIDIA NIM , parte da plataforma de software NVIDIA AI Enterprise , juntamente com o Google Kubernetes Engine (GKE), fornecem um caminho simplificado para o desenvolvimento de aplicativos baseados em IA e a implantação de modelos de IA otimizados na produção. Baseado em mecanismos de inferência, incluindo NVIDIA Triton Inference Server e TensorRT-LLM, o NIM oferece suporte a uma ampla variedade de modelos líderes de IA e oferece inferência de IA contínua e escalável para acelerar a implantação de IA generativa nas empresas.

A família de modelos Gemma, incluindo Gemma 7B , RecurrentGemma  e CodeGemma, está disponível no catálogo de API da NVIDIA para os usuários experimentarem em um navegador, protótipo com endpoints de API e auto-hospedagem com NIM.

O Google Cloud facilitou a implantação da estrutura NVIDIA NeMo em sua plataforma por meio do GKE e do Google Cloud HPC Toolkit . Isso permite que os desenvolvedores automatizem e dimensionem o treinamento e o fornecimento de modelos generativos de IA, permitindo-lhes implantar rapidamente ambientes prontos para uso por meio de projetos personalizáveis ​​que iniciam o processo de desenvolvimento.

O NVIDIA NeMo, parte do NVIDIA AI Enterprise, também está disponível no Google Cloud Marketplace, oferecendo aos clientes outra maneira de acessar facilmente o NeMo e outras estruturas para acelerar o desenvolvimento de IA.

Ampliando ainda mais a disponibilidade da computação generativa de IA acelerada pela NVIDIA, o Google Cloud também anunciou que a disponibilidade geral do A3 Mega chegará no próximo mês. As instâncias são uma expansão de sua família de máquinas virtuais A3, alimentadas por GPUs NVIDIA H100 Tensor Core . As novas instâncias dobrarão a largura de banda da rede GPU para GPU das VMs A3.

As novas VMs confidenciais do Google Cloud em A3 também incluirão suporte para computação confidencial para ajudar os clientes a proteger a confidencialidade e integridade de seus dados confidenciais e proteger aplicativos e cargas de trabalho de IA durante o treinamento e inferência – sem alterações de código ao acessar a aceleração de GPU H100. Essas VMs confidenciais alimentadas por GPU estarão disponíveis em versão prévia este ano.

Próximo: GPUs baseadas em NVIDIA Blackwell
As mais novas GPUs da NVIDIA baseadas na plataforma NVIDIA Blackwell chegarão ao Google Cloud no início do próximo ano em duas variações: a NVIDIA HGX B200 e a NVIDIA GB200 NVL72 .

O HGX B200 foi projetado para as mais exigentes cargas de trabalho de IA, análise de dados e computação de alto desempenho, enquanto o GB200 NVL72 foi projetado para treinamento de modelo de última fronteira, em grande escala, com trilhões de parâmetros e inferência em tempo real.

O NVIDIA GB200 NVL72 conecta 36 Superchips Grace Blackwell, cada um com duas GPUs NVIDIA Blackwell combinadas com uma CPU NVIDIA Grace em uma interconexão chip a chip de 900 GB/s, suportando até 72 GPUs Blackwell em um domínio NVIDIA NVLink e 130 TB/s de largura de banda. Ele supera gargalos de comunicação e atua como uma única GPU, oferecendo inferência LLM em tempo real 30x mais rápida e treinamento 4x mais rápido em comparação com a geração anterior.

NVIDIA GB200 NVL72 é um sistema em escala de rack de vários nós que será combinado com a quarta geração de sistemas avançados de refrigeração líquida do Google Cloud.

A NVIDIA anunciou no mês passado que NVIDIA DGX Cloud, uma plataforma de IA para desenvolvedores corporativos otimizada para as demandas de IA generativa, está disponível em VMs A3 com GPUs H100. DGX Cloud com GB200 NVL72 também estará disponível no Google Cloud em 2025.

Fonte: https://blogs.nvidia.com/blog/nvidia-google-cloud-ai-development/

« Retornar

ico-whatsapp
Dúvidas por WhatsApp
ico-chat
Dúvidas por Web Chat
ico-ticket.png
Abrir ticket Suporte