Les GPU NVIDIA Blackwell B100 seront disponibles cette année et le B200 mis à niveau pour les centres de données IA de 2025, confirme Dell
La gamme de GPU Blackwell AI de NVIDIA comprendra deux accélérateurs majeurs, le B100 pour 2024 et le B200 pour 2025, comme l’a révélé Dell.
Dell dévoile les accélérateurs GPU Blackwell AI de nouvelle génération de NVIDIA, le B100 en 2024 suivi du B200 en 2025
Lors de sa récente conférence téléphonique sur les résultats, Dell a révélé que la gamme Blackwell de nouvelle génération de NVIDIA ne disposera pas seulement d’un accélérateur d’IA B100, mais qu’une version améliorée sera proposée ultérieurement. À première vue, NVIDIA semble avoir déjà divulgué ces informations à ses plus grands partenaires tels que Dell, qui exploitera des serveurs et des centres de données en utilisant le dernier matériel d’IA et de calcul de NVIDIA.
Nous savons que les GPU Blackwell de NVIDIA devraient être lancés cette année et feront leurs débuts officiels au GTC 2024 ce mois-ci , dans quelques semaines seulement. Les feuilles de route actuelles soulignent les NVIDIA B100, GB200 et GB200NVL, B100 étant le nom de code du GPU lui-même, GB200 étant la plate-forme Superchip et GB200NVL étant la plate-forme interconnectée pour une utilisation en supercalcul.
Actuellement, certains rapports indiquent que les GPU Blackwell de NVIDIA pourraient utiliser une conception monolithique, même si rien n’est encore concret. Ce que l’on sait, c’est que, comme les GPU Hopper H200, le Blackwell B100 dans sa première génération exploitera les technologies de mémoire HBM3e. Ainsi, la variante B200 améliorée peut finir par utiliser une version encore plus rapide de la mémoire HBM ainsi que des capacités de mémoire éventuellement plus élevées, des spécifications améliorées et des fonctionnalités améliorées. Samsung serait un fournisseur majeur de mémoire pour les GPU Blackwell .
De toute évidence, en vue des changements, nous sommes enthousiasmés par ce qui se passe avec le H200 et par l’amélioration de ses performances. Nous sommes enthousiasmés par ce qui se passe sur le B100 et le B200 , et nous pensons que c’est là qu’il existe une autre opportunité de distinguer la confiance en ingénierie. Notre caractérisation côté thermique, vous n’avez vraiment pas besoin d’un refroidissement liquide direct pour atteindre la densité énergétique de 1 000 watts par GPU.
Cela se produira l’année prochaine avec le B200 . L’occasion pour nous de vraiment présenter notre ingénierie et la rapidité avec laquelle nous pouvons évoluer ainsi que le travail que nous avons accompli en tant que leader de l’industrie pour apporter notre expertise afin que le refroidissement liquide fonctionne à grande échelle, qu’il s’agisse de chimie des fluides et de performances, de notre interconnexion. le travail que nous effectuons, le travail de télémétrie que nous effectuons, le travail de gestion de l’énergie que nous effectuons, cela nous permet vraiment d’être prêts à mettre cela sur le marché à grande échelle pour tirer parti de cette incroyable capacité, intensité ou capacité de calcul qui existera sur le marché. .
Robert L. Williams – Dell Technologies Inc. – Vice-président directeur des relations internationales
Il est intéressant de noter que le vice-président directeur de Dell souligne également que la densité de puissance de ces GPU de nouvelle génération, tels que les NVIDIA Blackwell B100 et B200, sera de 1 000 W, ce qui est un chiffre énorme, mais rien que nous n’attendions de la part de certains des accélérateurs d’IA les plus rapides au monde. . Les NVIDIA Hopper H200 et AMD Instinct MI300X peuvent déjà consommer jusqu’à 800 W à la puissance maximale, donc étant donné les améliorations de performances que Blackwell devrait apporter , une augmentation de puissance de 200 W sera plutôt nominale compte tenu de son augmentation d’efficacité.
Les besoins en énergie des processeurs et des GPU vont continuer à augmenter à l’avenir, comme indiqué il y a quelque temps dans la feuille de route de Gigabyte . Pour surmonter ces problèmes, les entreprises s’appuieront sur des technologies avancées de processus et de conditionnement pour garantir que le coût de développement des puces reste optimal tout en garantissant une efficacité énergétique plus élevée.
Feuille de route NVIDIA Data Center / GPU AI
Nom de code du GPU | X | Insister sur | Puits noir | Trémie | Ampère | Temps | Pascal |
---|---|---|---|---|---|---|---|
Famille de GPU | GX200 | GR100 | GB200 | GH200/GH100 | GA100 | GV100 | GP100 |
GPU WeU | X100 | 100 rands | B100/B200 | H100/H200 | A100 | V100 | P100 |
Mémoire | HBM4e ? | HBM4 ? | HBM3e | HBM2e/HBM3/HBM3e | HBM2e | HBM2 | HBM2 |
Lancement | 202X | 2025 | 2024 | 2022-2024 | 2020-2022 | 2018 | 2016 |
Source d’information : Barron’s
Laisser un commentaire