GeForce RTX 50 continuera à utiliser un GPU monolithique

GeForce RTX 50 continuera à utiliser un GPU monolithique

La transition vers les chiplets dans le secteur des GPU semble inévitable, ce qui signifie que c’est quelque chose qui arrivera tôt ou tard. AMD a déjà fait ce saut dans le secteur professionnel, tandis que NVIDIA continue de miser sur un cœur monolithique, qui, selon les dernières rumeurs que nous avons vues, ne changera pas avec la GeForce RTX 50.

La famille GeForce RTX 50 succèdera à la série GeForce RTX 40, une génération qui n’a pas encore été annoncée, mais que nous connaissons assez bien grâce à diverses fuites. Nous savons qu’ils utiliseront une conception de base monolithique et que la puce la plus puissante du marché grand public, provisoirement connue sous le nom d’AD102, aura 18 432 shaders dans sa version complète.

Eh bien, la GeForce RTX 50 conservera la conception de noyau monolithique que nous verrons dans la GeForce RTX 40. Ce sera à son tour une évolution du noyau que NVIDIA a utilisé dans la GeForce RTX 30, basée sur l’architecture Ampere. ce qui nous en dit long si nous pouvons lire entre les lignes :

  • Le découpage en cœurs spécialisés (tenseur et RT) se poursuivra.
  • La réduction des processus sera essentielle pour augmenter le nombre de shaders.
  • Nous ne nous attendons pas à des changements profonds au niveau de l’architecture. Blackwell sera l’aboutissement d’un design lancé par NVIDIA avec Turing, affiné avec Ampere et amélioré avec Ada Lovelace.

Pourquoi est-il judicieux de conserver un GPU monolithique dans la GeForce RTX 50 ?

La clé la plus importante est très facile à comprendre car il n’est pas si facile de connecter deux GPU ou plus et de les faire fonctionner comme un seul. La transition vers la conception MCM dans le secteur graphique ouvrira la porte à une nouvelle phase où les outils de développement et les jeux doivent être prêts à tirer pleinement parti de ces conceptions.

D’autre part, à tout ce qui précède, il faut ajouter les problèmes qui peuvent survenir lors de l’interconnexion des puces, notamment en termes de latence, de répartition de la charge de travail, de gestion et d’utilisation des ressources. Ce n’est pas un problème anodin, et cela nécessite un travail approfondi de la part des développeurs et des concepteurs de puces pour que tout fonctionne comme il se doit.

Je sais ce que vous pensez, si la conception MCM peut vous poser tous ces problèmes, pourquoi est-il inévitable d’abandonner la conception du noyau monolithique ? Eh bien, c’est très simple, car la complexité croissante des GPU signifie qu’ils ont de plus en plus de shaders, ce qui, combiné à la réduction constante des processus de fabrication, signifie qu’il devient de plus en plus difficile de transférer ces conceptions sur le wafer.

Après tout, il est plus facile et plus rentable de créer 10 000 GPU de shader et d’enchaîner les deux pour créer 20 000 GPU de shader que de construire directement 20 000 GPU de shader, car il y a un plus grand risque que les choses tournent mal avec le second. complexité. Il est plus efficace en termes de coût et de taux de réussite des plaques.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *