Jin10 données 15 septembre - Selon le média sud-coréen ETNews, la société Nvidia a décidé d'annuler le travail de promotion de la première génération de SOCAMM (module de mémoire supplémentaire à puce système), et de concentrer complètement le développement technologique sur la nouvelle génération de produits SOCAMM2. Cet ajustement vise à optimiser davantage les performances des modules de mémoire, afin de mieux répondre aux besoins du domaine des serveurs AI. Selon les informations, la technologie SOCAMM était initialement positionnée comme une nouvelle solution de mémoire à haute bande passante et à faible consommation d'énergie destinée aux serveurs AI, avec pour objectif de fournir des performances proches de celles de HBM (mémoire à haute bande passante) tout en réduisant efficacement les coûts, ce qui a suscité un large intérêt dans l'industrie depuis l'annonce du projet. Auparavant, Nvidia avait déjà inclus des informations relatives à SOCAMM dans ses documents produits, où la spécification GB300NVL72 montre que ce produit peut prendre en charge jusqu'à 18 To de SOCAMM basé sur LPDDR5X, avec une bande passante pouvant atteindre 14,3 To/s.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
NVIDIA abandonne l'importation de SOCAMM1 et se concentre sur le projet SOCAMM2.
Jin10 données 15 septembre - Selon le média sud-coréen ETNews, la société Nvidia a décidé d'annuler le travail de promotion de la première génération de SOCAMM (module de mémoire supplémentaire à puce système), et de concentrer complètement le développement technologique sur la nouvelle génération de produits SOCAMM2. Cet ajustement vise à optimiser davantage les performances des modules de mémoire, afin de mieux répondre aux besoins du domaine des serveurs AI. Selon les informations, la technologie SOCAMM était initialement positionnée comme une nouvelle solution de mémoire à haute bande passante et à faible consommation d'énergie destinée aux serveurs AI, avec pour objectif de fournir des performances proches de celles de HBM (mémoire à haute bande passante) tout en réduisant efficacement les coûts, ce qui a suscité un large intérêt dans l'industrie depuis l'annonce du projet. Auparavant, Nvidia avait déjà inclus des informations relatives à SOCAMM dans ses documents produits, où la spécification GB300NVL72 montre que ce produit peut prendre en charge jusqu'à 18 To de SOCAMM basé sur LPDDR5X, avec une bande passante pouvant atteindre 14,3 To/s.