Nvidia revela GPU Hopper H100 NVL desenvolvido especificamente para ChatGPT

Por: Gustavo Dias
Tempo de leitura: 3 min
Nvidia H100

Ao contrário do esperado, não foram revelados novos modelos de placas gráficas GeForce RTX da série 40 durante o Nvidia GTC (GPU Technology Conference), mas o gigante de Santa Clara aproveitou a ocasião para revelar algo ainda mais revolucionário, o novo GPU Hopper H100 NVL, que foi criado específicamente para lidar com os novos desafios da Inteligência Artificial.

No fundo trata-se de um GPU Hopper H100, já revelado anteriormente na sua variante H100 SXM, ou seja, em forma de módulo que pode ser instalado em qualquer tipo de servidor. Este GPU tem um total de 16896 núcleos CUDA, 528 núcleos Tensor, e todos eles funcionam a uma frequência de 1.98 GHz, precisamente as mesmas características que a variante original H100 SXM, ao contrário da variante PCI-Express, que foi obrigada a reduzir diversos parâmetros.

Com a chegada desta variante H100 NVL, tem a particularidade de utilizar dois GPU numa só placa, duplicando assim todas as características técnicas que revelámos anteriormente, esta será aproveitada para a criação de servidores específicos para tarefas LLM (Large Language Models), o que corresponde a aplicações como aprendizagem de modelos, como fazem os servidores que alimentam ferramentas como o ChatGPT.

Assim sendo, cada módulo incluirá dois dos GPU H100 com todas os módulos activos, ou seja, os seis módulos de memória HBM3 integrado no próprio GPU com uma capacidade de 96 GB por GPU, ou seja, um total de 188 GB por módulo, um incremento face aos 80 GB disponíveis no GPU utilizado tanto no módulo SXM como na variante PCIe. Esta comunica com o GPU através de um barramento de 6144-bit, o que corresponde a uma dupla largura de banda de 3.9 TB/s.

 

Segundo a Nvidia, cada módulo destes deverá ser capazes de processar 175 mil milhões de parâmetros ChatGPT em simultâneo, o que significa que um servidor novo equipado com quatro GPU H100 NVL será capaz de oferecer um desempenho até 10 vezes superior ao de um tradicional servidor DGX A100 equipado com oito GPU da anterior geração GA100 Ampere.

  Nvidia H100 NVL Nvidia H100 PCIe Nvidia H100 SMX Nvidia A100 PCI Nvidia A100 SXM
GPU 2x GH100 GH100 GH100 GA100 GA100
Processo de fabrico 4 nm 4 nm 4 nm 7 nm 7 nm
Transístores 80 mil milhões 80 mil milhões 80 mil milhões 54.2 mil milhões 54.2 mil milhões
Dimensão GPU 814 mm2 814 mm2 814 mm2 815 mm2 815 mm2
Núcleos CUDA 2x 16896 14592 16896 6912 6912
Núcleos Tensor 2x 528 456 528 432 432
Memória 2x 94 GB HBM3 80 GB HBM2e 80 GB HBM3 80 GB HBM2e 80 GB HBM2e
Barramento 6144-bit 5120-bit 5120-bit 6144-bit 6144-bit
Largura de banda 2x 3.9 TB/s 2.0 TB/s 3.35 TB/s 1.9 TB/s 2.0 TB/s
Seguir:
Editor da revista PCGuia, com mais de 10 anos no mercado de publicações tecnológicas. Grande adepto de tudo o que seja tecnológico, ficção científica e quatro rodas.
Exit mobile version