News Micron-Roadmap: Pläne für HBM4, MRDIMMs, CXL3 und LPCAMM dargelegt

MichaG

Redakteur
Teammitglied
Registriert
Juli 2010
Beiträge
12.926
  • Gefällt mir
Reaktionen: flo.murr, schneeland, ETI1120 und 2 andere
Spricht für RTX 5000 mit GDDR7 Anfang 2025.
 
  • Gefällt mir
Reaktionen: flo.murr und schneeland
Geht recht fix mit den MT Werten, allerdings oft durch höhere DRAM Vc und schelchtere Timings.

HBM gerne, müssten nur wieder Grafikkarten supporten, vielleicht gibt AMD sich ja einen Ruck.
 
RAM anbinden via PCIe .... krass :D

scheinbar wird PCIe als Grundlage für sehr viele Bussysteme der Zukunft werden.
 
2GB und 3GB Module für GDDR7. Heißt wohl wieder mal gute Chancen, dass uns Nvidia die selben 8 / 12 und 16 GB serviert, sofern die nächste Gen nicht mit 96-bit Bus daherkommt und wir 9GB Einsteigermodelle bekommen. :D
 
  • Gefällt mir
Reaktionen: flo.murr, mojitomay, usernamehere und 2 andere
rony12 schrieb:
scheinbar wird PCIe als Grundlage für sehr viele Bussysteme der Zukunft werden.
Wenn man sich anschaut, welche Datenraten mit PCIe 5.0 erreicht werden, ist das auch sehr sinnvoll! Grafikkarten können mit der hohen Bandbreite ja praktisch gar nichts anfangen, der Sprung auf 4.0 hat ja kaum Vorteile gebracht. Irgendwann steht auch PCIe 6.0 vor der Tür, dann ist man bereits in Regionen von DDR5. Ich denke mal, dass vor allem KI und große Datenbanken von diesen Technologien profitieren werden. Sehr spannend, was da noch alles kommen wird! :D
 
  • Gefällt mir
Reaktionen: AlphaKaninchen
rony12 schrieb:
RAM anbinden via PCIe .... krass :D
Im Prinzip sind wir bald wieder in Anfängen der Homecomputer, wo verlöteter RAM und Ramerweiterungen über das Bus System der Steckkarten normal waren :D
 
  • Gefällt mir
Reaktionen: mojitomay
SaschaHa schrieb:
Ich denke mal, dass vor allem KI und große Datenbanken von diesen Technologien profitieren werden.
Genau das ist wohl der Punkt. Es geht um Datenlokalität. Man braucht die Daten dort, wo sie verarbeitet werden. Nicht umsonst ist für KI die RTX 4090 so sehr gefragt. Compute-Leistung ohne Ende, aber die Daten müssen zu den Recheneinheiten "schnell hin und schnell wieder zuück" :)
 
Innocience schrieb:
Heißt wohl wieder mal gute Chancen, dass uns Nvidia die selben 8 / 12 und 16 GB serviert, sofern die nächste Gen nicht mit 96-bit Bus daherkommt und wir 9GB Einsteigermodelle bekommen. :D
Erst 9GB und dann paar Monate später zu Weihnachten, als SUPER mit 11GB raushauen für 300€ Aufpreis.
 
  • Gefällt mir
Reaktionen: mojitomay und Qyxes
Faust2011 schrieb:
Genau das ist wohl der Punkt. Es geht um Datenlokalität. Man braucht die Daten dort, wo sie verarbeitet werden.
Deswegen ist in Memory Computing auch gerade so ein heißes Eisen in Forschung und Entwicklung.
 
  • Gefällt mir
Reaktionen: AlphaKaninchen und Faust2011
Zurück
Oben