News Schneller Arbeitsspeicher: Samsung spricht über DDR6, DDR6+ und GDDR7

Mal ehrlich DDR5 steht noch in den "Startlöchern" und kaum noch Hardwarefertigung. Hoffen wir, dass es nicht wie GDDR4 wie bei den Grafikkarten sein wird. Das war damals ganz schön kurzfristig und ich möchte nicht jedes Jahr neue Hardware tauschen wie vor 20. Jahren kaum noch hinterher kommt.
 
Statt schnellerem GDDR6 hätte ich lieber größeren. Durch Infinity-Cache sinkt die Anzahl der benötigen Speicherinterfaces(PHYs) innerhalb der GPU, so dass eine RX6500XT (Navi24 Chip) zB nur noch 2 davon hat, und auf ingesamt 64-bit kommt.
Damit sinkt jedoch die Anzahl der maximal möglichen Speicher-Module auf 2.
16Gbit, also 2Gbyte-Module sind derzeit noch das Maximum. Damit wird eine RX6500XT auf 4Gbyte Kapazität limitiert.
Der Jedec-Standard erlaubt aber auch 24Gbit(3GB) und sogar 32Gbit(4GB)-Module.
Wenn man zumindest mal versucht 24Gbit-Module zu fertigen, könnte so eine 6500XT auf 6GB kommen, was für deren Leistungsklasse zumindest mal ausreichen würde, dass sie in vielen Spielen nicht komplett absaufen würde, so wie die 4GB-Variante gegenüber der 8GB-Variante der RX 5500XT
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DaBo87 und aklaa
DoSBos_74 schrieb:
Obacht. Die Driftgeschwindigkeit der Elektronen ist nicht das Relevanteste zur Datenübertragung.

Durch eine minimale Bewegung der Elektronen machen alle Elektronen im Leiter durch die Feldänderung einen Shift in die selbe Richtung.

Das geschieht annähernd Lichtschnell.

In aktuellen Chips bei weitem nicht, AFAIK vor allem kapazitativen Effekten geschuldet. Je duenner die Leiterbahn, desto langsamer ist die Signaluebertragung. Ein Praktiker hat da einmal von WIMRE 0.3 mm/ns geschrieben (Lichtgeschwindigkeit waere 300mm/ns); man kann die Leiterbahnen natuerlich fuer schnelle Uebertragung breiter machen, aber das konterkariert natuerlich die Kapazitaets- und Effizienzgewinne durch kleinere Prozesse.

Im Endeffekt wird die Latenz von DRAM nicht schneller; immerhin werden die Uebertragungsraten schneller. Und weil ein DRAM-Zyklus (Lesen+Refresh) nicht schneller wird, muss eine DRAM-Einheit in immer mehr Uebertragungsschritte geteilt werden; bei DDR4 in 8 Schritte, bei DDR5 in 16, bei DDR6 in 32. Und weil man nicht mehr als 64 Bytes uebertragen will (eine Cache-Line), macht man seit DDR5 32-bit-Channels, von denen es 2 auf einem DIMM gibt; bei DDR6 sind's dann 4 16-bit-Channels pro DIMM.

Die Interferenzen (Stichwort Wellenbrechung und stehende Wellen) sind da eher das Hauptproblem.

Soweit ich weiss, haben die Terminatoren in die Chips eingebaut, um dieses Problem grossteils zu eliminieren; zusaetzlich gibt's noch Training auf die konkrete Uebertragungssituation. Sonst waeren die extremen Uebertragungsraten von heute nicht zu erreichen.
 
basic123 schrieb:
Hat jetzt GDDR6X überhaupt noch irgendwelche Vorteile?
Du kannst genauso gut nach irgendwelchen Nachteilen fragen. Es ist ja nichts zu GDDR6+ bekannt. Da wird man abwarten müssen.
Vielleicht ist es auch das gleiche in grün.
 
mae schrieb:
In aktuellen Chips bei weitem nicht, AFAIK vor allem kapazitativen Effekten geschuldet. Je duenner die Leiterbahn, desto langsamer ist die Signaluebertragung. Ein Praktiker hat da einmal von WIMRE 0.3 mm/ns geschrieben (Lichtgeschwindigkeit waere 300mm/ns); man kann die Leiterbahnen natuerlich fuer schnelle Uebertragung breiter machen, aber das konterkariert natuerlich die Kapazitaets- und Effizienzgewinne durch kleinere Prozesse.


Soweit ich weiss, haben die Terminatoren in die Chips eingebaut, um dieses Problem grossteils zu eliminieren; zusaetzlich gibt's noch Training auf die konkrete Uebertragungssituation. Sonst waeren die extremen Uebertragungsraten von heute nicht zu erreichen.

Grundsätzlich wird bei DDR5 mindestens einmal am Bus der CPU und auf den DIEs terminiert.
In aller Regel wird jedoch zusätzlich nochmal auf den Dimms terminiert.

Die Kapazität hängt von deutlich mehr als nur der Leiterbahnweite ab (wobei die Weite historisch meist das go to Beispiel für VLSI Vorlesungen ist spielen da noch Material, Abstand zwischen den Leiterbahnen, Konterkapazitäten, Material ,....).

Wenn man nicht ans DIE gebunden ist hat man dort sehr viele Möglichkeiten (muss diese allerdings auch ausschöpfen).

All das beeinflusst jedoch auch die Terminierung, weshalb diese auch dabei so ein großes Thema bleibt.
Im allgemeinen lässt sich mit genug Aufwand in der Praxis etwa das hundertfache verglichen mit einer ähnlich breiten Leitung wie man sie für nicht Latenzkritische Anwendungen nutzt rausholen.
Das wird halt nur in ganz bestimmten Nischen ausgenutzt und ist auch wirklich teuer.
 
  • Gefällt mir
Reaktionen: mae
Verstehe den Sinn von immer schnellerem Speicher überhaupt nicht, wenn man derzeit auch locker weiterhin mit sehr preiswerten DDR4 RAM zu recht kommt, vor allem wenn man größtenteils wie ich in nativen 4k zockt und z.B. mal so gar kein bock auf über 120FPS in 4k hat, selbst mit einer kommenden RX 7900 XT, die ich unter Wasser setzten möchte, möchte ich nicht über 120 FPS kommen, da mein Bildschirm ein LG OLED C1 ist und sowieso nur 120Hz höchstens hat und ich dementsprechend nur höchstens 120FPS "sehen" kann und es jetzt schon lange bei einigen älteren Titeln, wo es möglich ist, nutze.
Da kann ich ja in Ruhe noch locker so einige Jahre auf AM4 mit dem 5800X und DDR4 RAM weiter spielen und lieber von Gen zu Gen die GPU upgarden.
Meine Asus Rog Strix RX 6900 XT LC Top Edition muss alleine schon deshalb einer RX 7900 XT weichen, weil ich so richtig Bock habe diese auf Custom Wasserkühlung umzubauen und das Baby hier zur Kühlung NUR für die GPU einzusetzen:
https://www.aquatuning.de/wasserkue...FdDRRPvSlCXmFd_nTsClNKiutzd8j-uhoCGi8QAvD_BwE

Irgendwelche Einwände oder Korrekturen?
Bitte drum Jungs 🙏
 
Warum redet man derzeit schon wieder mehr von GDDR7 als über HBM3? War HBM Speicher nicht grundsätzlich besser nur eben teuerer? 🤔
 
  • Gefällt mir
Reaktionen: PS828
😂
Bestimmt. Ich komme gerne drauf zurück 👍
 
@andi_sco
Du Andi, das weiß ich leider nicht, sorry ... :(
 
andi_sco schrieb:
Hat HBM denn noch den Verbrauchsvorteil, gegenüber seinem GDDR Pedant
Hat es. Selbst bei GDDR7 gegen HBM. HBM ist durch sein breites Interface weniger anfällig dahingehend und leistet auf die Dichte bezogen auch mehr. Sieht man auch gut an den mittlerweile teileweise dutzenden GDDR Chips auf einem Board die alle genug hitze produzieren un einen eigenen HS zu bekommen während HBM(3) mit 16 GB stacks ganz einfach nah an der GPU sitzen kann was weitere Vorteile bringt.

Sieht man dass bei der 3090(ti) 4090 der VRAM alleine 50-70W braucht, da sollte es für HBM trotz vielfacher Kapazität etwa die Hälfte oder gar weniger sein
 
  • Gefällt mir
Reaktionen: Serandi
Wahnsinn... Dann sollte ja eine RTX 5090 mit HBM3 (falls es dazu kommt) ein wahres Leistungs- und Effizienzmonster werden :)
 
HBM sehe ich nicht auf einer consumer oder workstation karte. Dafür müsste, weil nvidia immer die gleichen Chips sowohl im Profi als auch im consumerbereich einsetzt, der chip beides können was die Anbindung betrifft. Halte ich für unwahrscheinlich dass sie das machen. Zudem würden die Kosten im Vergleich was die Herstellung betrifft Massiv ansteigen verglichen mit GDDR sodass nvidia, sollten sie diesen Schritt gehen, sich ihn Vergolden lassen auch über das eigentliche Maß hinaus.

Abschließend denke ich dass, sollte es nvidia machen, es nur überall tut weil es nicht mehr anders möglich ist. Dennoch bin ich mir sehr sicher, dass jetzt wo der ineffektive GDDR6X ausläuft und GDDR7 zumindest etwas effizienter ist, nvidia auch künftig bis auf die HPC/Server Modelle, bei GDDR bleiben wird. HBM bleibt den compute GPUs vorbehalten wo die großen Speichermengen und Bandbreiten richtig zünden.

Bei AMD ist es ja das gleiche. Die instinct karten (CDNA) kommen mit bis zu 12 stacks HBM3 (MI3/400) während alle RDNA Modelle mit GDDR kommen. Lohnt sich aktuell einfach noch nicht den Preisanstieg bis runter mit zu gehen. Und für kleine GPUs lohnt es sich ohnehin nicht wenn ein HBM stack allein schon zwischen 50 und 70€ kostet für die Hersteller. Da bekommt man sehr viel GDDR für ;)
 
  • Gefällt mir
Reaktionen: Serandi
Der Vorteil von HBM3 in Sachen Effizienz sollte gegenüber GDDR7 in etwa bei Faktor x2 liegen. Die gleiche Menge wird in etwa halb so viel Energie aufnehmen.

PS828 schrieb:
HBM sehe ich nicht auf einer consumer oder workstation karte.

Richtig, das Thema HBM auf Comsumer-Grafikkarten haben sowohl AMD als auch Nvidia verworfen.

Da eine RTX 5090 voraussichtlich die 2.000 Euro UVP knapp überschreiten wird, wäre es zwar denkbar, aber für Nvidia gar nicht notwendig. Das wird nicht passieren.
 
  • Gefällt mir
Reaktionen: Gorasuhl, Serandi und PS828
Und ich dachte, das der HBM Speichercontroller auch kleiner ist...
Aber bei so einem Monster fällt es wohl nicht mehr so ins Gewicht, wie noch bei den alten 512 Bit Interfaces in den 2000ern
 
Zurück
Oben