Notebookcheck Logo

Nvidia dévoile le GPU de calcul Hopper H100 et les architectures de super-puces Grace

Le GPU H100 sera lancé au troisième trimestre 2022. (Image Source : Nvidia)
Le GPU H100 sera lancé au troisième trimestre 2022. (Image Source : Nvidia)
Le H100 Hopper est le premier GPU de Nvidia doté des spécifications PCIe 5.0 et prenant en charge la VRAM HBM3. Ce modèle est jusqu'à 6 fois plus rapide dans les charges de travail FP et offre une évolutivité considérablement plus élevée par rapport aux modèles Ampere de la génération précédente. Nvidia prévoit également de lancer une super-puce Hopper GPU + Grace CPU et même une super-puce Grace double.

Les GPU Hopper H100 AI et HPC de Nvidia viennent d'être dévoilés à la GTC en même temps que les superpuces Grace. Comme toujours, les modèles de GPU de calcul sont hautement évolutifs, et Nvidia propose diverses solutions multi-GPU pour répondre aux différents besoins des centres de données. Un seul GPU Tensor Core H100, d'autre part, apporte des améliorations significatives par rapport à l'A100 2020 Ampère 2020 Ampère A100 notamment dans le domaine des opérations FP.

Tout d'abord, le GPU H100 est fabriqué sur des Nœuds de 4 nm de TSMC et possède un die de 814 mm² (14 mm² de moins que l'A100). Ce modèle est le premier de Nvidia à intégrer la technologie PCIe 5.0 et il existe également un facteur de forme SXM plus rapide. Le GPU lui-même comprend pas moins de 80 milliards de transistors, ce qui représente une augmentation de près de 50 % par rapport à l'Ampère. Il comporte également 132 clusters GPU avec 16896 cœurs CUDA pour la norme SXM et 14592 cœurs CUDA pour la norme PCIe 5.0, soit plus du double de la génération précédente

Le cache L2 passe de 40 à 50 Mo, mais le bus mémoire reste le même, à 5120 bits, et la capacité de mémoire est fixée à 80 Go HBM3 avec une bande passante de 3 ou 2 To/s selon le facteur de forme. La version SXM comporte 528 cœurs Tensor et nécessite 700 W, tandis que la version PCIe ne comporte que 456 cœurs Tensor et est limitée à 350 W TGP. Nvidia affirme que 20x les GPU H100 peuvent supporter l'équivalent du trafic Internet mondial, mais la nouvelle architecture peut être mise à l'échelle pour des centaines, voire des milliers de clusters DGX qui seront utilisés dans les futurs superordinateurs

En ce qui concerne les performances FP, le GPU H100 peut traiter 4 PFLOPS de FP8 (6x plus que A100), 2 PFLOPS de FP16 (3x plus que A100), 1 PFLOPS de TF32 (3x plus que A100) et 60 TFLOPS de FP64/FP32 (3x plus que A100). Des améliorations similaires peuvent être obtenues avec les calculs FP de Tensor Core.

Nvidia prévoit également de publier une version de la technologie Grace Hopper qui combine un GPU H100 et un CPU Grace connectés ensemble par un NVLink 900 GB/s. De même, il y aura également une super-puce Grace qui combine deux CPU Grace offrant 144 cœurs ARM, 1 TB/s LPDDR5x et 396 Mo de cache sur la puce. Cette super-puce Grace peut être associée à un maximum de huit GPU Hopper, mais de telles configurations ne seront pas disponibles avant le troisième trimestre 2023. Les GPU Hopper de Nvidia, quant à eux, seront livrés à partir du troisième trimestre 2022.

 

Acheter le GPU de calcul Nvidia Tesla v100 16 Go sur Amazon

H100 PCIe (Image Source : Nvidia)
H100 PCIe (Image Source : Nvidia)
H100 SXM (Image Source : Nvidia)
H100 SXM (Image Source : Nvidia)
Comparaisons avec le GPU Ampere A100 (Image Source : Nvidia)
Comparaisons avec le GPU Ampere A100 (Image Source : Nvidia)
Spécifications SXM vs PCIe en un coup d'œil (Image Source : Nvidia)
Spécifications SXM vs PCIe en un coup d'œil (Image Source : Nvidia)
Please share our article, every link counts!
Mail Logo
> Revues et rapports de ordinateurs portatifs et smartphones, ordiphones > Archives des nouvelles 2022 03 > Nvidia dévoile le GPU de calcul Hopper H100 et les architectures de super-puces Grace
Bogdan Solca, 2022-03-23 (Update: 2024-08-15)