Quantcast
Channel: Next - Flux Complet
Viewing all articles
Browse latest Browse all 4096

GPU et IA (générative) : des annonces tous azimuts sur la HBM3E

$
0
0
High Bankable Memory

Les trois principaux fabricants de mémoire HBM (Micron, Samsung et SK Hynix) ont récemment annoncé de nouvelles puces HBM3E. Les promesses sont les mêmes : débits et densités toujours plus importants. Les fabricants de cartes graphiques sautent sur l’occasion pour doper leurs GPU. L’intelligence artificielle, notamment générative, est évidemment en ligne de mire.

La HBM (High Bandwidth Memory) est, comme son nom l’indique, de la mémoire avec une bande passante élevée. On la retrouve, par exemple, dans les cartes graphiques haut de gamme, utilisées particulièrement pour tout ce qui touche à l’intelligence artificielle.

La première génération est sortie en 2013. La HBM2 arrive en 2016, avec plusieurs générations au fil des années. Citons la HBM2E officialisée par le JEDEC bien longtemps après les premiers modules des fabricants. Elle correspond à la troisième génération de mémoire HBM2. Vient ensuite l’officialisation de la HBM3 en 2022. Le débit par broche atteint 6,4 Gb/s pour un débit maximum par puce de 819 Go/s.

AMD et NVIDIA lorgnent sur la HBM3E pour leur GPU haut de gamme


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.


Viewing all articles
Browse latest Browse all 4096

Trending Articles