Micron lance la production en volume du HBM3e, qui devrait faire ses débuts dans les GPU H200 AI de NVIDIA

Micron lance la production en volume du HBM3e, qui devrait faire ses débuts dans les GPU H200 AI de NVIDIA

Micron a commencé la production en série de sa mémoire HBM3e , car la norme est adoptée en masse par des entreprises comme NVIDIA pour les GPU H200 AI .

La solution HBM3e de Micron promet des performances exceptionnelles, répondant à la croissance des solutions d’IA et alimentant le mastodonte de l’IA H200 de NVIDIA

[ Communiqué de presse ] : Micron Technology a annoncé aujourd’hui avoir démarré la production en volume de sa solution HBM3E (High Bandwidth Memory 3E). Le HBM3E de 24 Go 8H de Micron fera partie des GPU NVIDIA H200 Tensor Core, qui commenceront à être expédiés au cours du deuxième trimestre civil de 2024.

Cette étape importante positionne Micron à l’avant-garde du secteur, en dotant les solutions d’intelligence artificielle (IA) des performances et de l’efficacité énergétique de pointe du HBM3E. Alors que la demande en IA continue d’augmenter, le besoin de solutions de mémoire pour suivre le rythme des charges de travail croissantes est crucial.

La solution HBM3E de Micron relève ce défi de front avec :

  • Performances supérieures : avec une vitesse de broche supérieure à 9,2 gigabits par seconde (Gb/s), le HBM3E de Micron fournit plus de 1,2 téraoctets par seconde (To/s) de bande passante mémoire, permettant un accès ultra-rapide aux données pour les accélérateurs d’IA, les supercalculateurs et les données. centres.
  • Efficacité exceptionnelle : le HBM3E est à la pointe du secteur avec une consommation d’énergie inférieure d’environ 30 % par rapport aux offres concurrentes. Pour prendre en charge la demande et l’utilisation croissantes de l’IA, HBM3E offre un débit maximal avec les niveaux de consommation d’énergie les plus bas afin d’améliorer les mesures importantes des dépenses opérationnelles du centre de données.
  • Évolutivité transparente : avec 24 Go de capacité aujourd’hui, HBM3E permet aux centres de données de faire évoluer de manière transparente leurs applications d’IA. Que ce soit pour entraîner des réseaux de neurones massifs ou accélérer les tâches d’inférence, la solution de Micron fournit la bande passante mémoire nécessaire.

Micron a développé cette conception HBM3E leader du secteur en utilisant sa technologie 1-bêta, son Advanced Through-Silicon Via (TSV) et d’autres innovations qui permettent une solution d’emballage différenciée. Micron, leader reconnu dans le domaine de la mémoire pour l’empilement 2,5D/3D et les technologies d’emballage avancées, est fier d’être partenaire de l’alliance 3DFabric de TSMC et de contribuer à façonner l’avenir des innovations en matière de semi-conducteurs et de systèmes.

Micron offre un trio gagnant avec cette étape importante du HBM3E : un leadership en termes de délais de mise sur le marché, les meilleures performances du secteur et un profil d’efficacité énergétique différencié. Les charges de travail d’IA dépendent fortement de la bande passante et de la capacité de la mémoire, et Micron est très bien placé pour soutenir la croissance significative de l’IA à venir grâce à notre feuille de route HBM3E et HBM4, leader du secteur, ainsi qu’à notre portefeuille complet de solutions DRAM et NAND pour les applications d’IA.

– Sumit Sadana, vice-président exécutif et directeur commercial chez Micron Technology

Micron étend également son leadership avec l’échantillonnage de 36 Go 12-High HBM3E, qui devrait offrir des performances supérieures à 1,2 To/s et une efficacité énergétique supérieure par rapport aux solutions concurrentes, en mars 2024. Micron est sponsor de NVIDIA GTC, une conférence mondiale sur l’IA qui débutera le 18 mars, au cours de laquelle la société partagera davantage sur son portefeuille de mémoires IA de pointe et ses feuilles de route.

Source d’information : Micron

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *