News Arbeitsspeicher: GDDR7, HBM3E und LPDDR5X werden weiter beschleunigt

Galarius schrieb:
Nun bleibt zu hoffen das Nvidia nicht künstlich die Bandbreite mit kleinen Speicherinterfaces beschneided ....... Freu mich schon auf ne 5080 mit 128 bit.
Die Bits sind egal da es durch Cache ausgeglichen wird, was nicht egal ist wenn die Vram-Mengen darunter leiden. Immerhin hat AMD nun bewiesen das mit 128 Bit 16 GB möglich sind (7600 XT hat RAM auf beiden Seiten des boards). Somit wären mit 192 Bit auch 24 GB möglich falls es eben Nvidia zb umsetzen will. Problematisch waren diese Generation eigentlich nur die 4060 Ti, 8 GB ist zu wenig für eine GPU der gehobenen Mittelklasse (8 GB Version abschaffen), ab der 4070 ging es, 12 GB reicht grad so. Die 4060 ist mit 8 GB auch noch „okay“ gewesen (low-mid GPU), somit muss man hier nicht mehr Drama machen als es wirklich war. Bei AMD hatte keine GPU zu wenig und man bekam eigentlich mehr als genug im Schnitt.
 
Kann man nur hoffen, das bei den kommenden Nvidia GPU's nicht wieder so mit RAM und Bandbreite gegeizt wird. 4k, 60 fps, RT, ohne upscaling in aktuellen AAA sollte ab 500 € mal möglich sein. Mehr will ich gar nicht.
Und die 5060 sollte schon mit 12 GB RAM kommen und so schnell wie ne 4070 sein...
 
eazen schrieb:
Die Bits sind egal da es durch Cache ausgeglichen wird, was nicht egal ist wenn die Vram-Mengen darunter leiden.
Die werden aber auch nicht unendlich viel Cache verbauen. Das kostet auch ordentlich Fläche. Wenn die irgendwann mal den Cache stacken oder in einen Base Die verstecken, dann relativiert sich das wieder.
eazen schrieb:
Immerhin hat AMD nun bewiesen das mit 128 Bit 16 GB möglich sind (7600 XT hat RAM auf beiden Seiten des boards).
Das braucht man nicht beweisen, das wird seit Jahrzehnten so gemacht. Und gibt's bei der 4060Ti ja auch.
eazen schrieb:
Bei AMD hatte keine GPU zu wenig und man bekam eigentlich mehr als genug im Schnitt.
Die 7600 hat definitiv zu wenig. Zeigt ja auch die 7600XT.
Für die 4070Ti sind 12 GB auch sehr knapp. In 1440p und/oder RT geht da in schon einigen Spielen die Luft aus.


Aber ich stimme dir zu, dass das oftmals etwas dramatisiert wird.
 
Tigerfox schrieb:
Hab auch gerade erst gesehen, dass bei 32Gbps von 16-24Gb-Modulen und bei 36Gbps von 24Gb+ die rede ist. Also doch 3GB-Module! Damit sind 12GB an 128Bit, 16GB an 192Bit und 24GB an 256Bit möglich!
Endlich. Ist auch für die neue Konsolen Generation unerlässlich.
 
Kokuswolf schrieb:
Junge, HBM1 ist noch immer mehr als 3x schneller als GDDR7. Wenn der Preis da nicht wäre.
Nicht ganz. Du musst berücksichtigen dass bei gddr7 mehrere chips verwendet werden. 8x 37 = 296 vs 461 bei 16 gb macht "nur" 55 Prozent Unterschied
 
Galarius schrieb:
Coolio, rate mal wieso ich Nvidia in meinem Post geschrieben hatte:heilig:
Dein Post hat generell wenig (eher keinen) Sinn gemacht, da hilft es dir auch nicht nach „Fehlern“ in meinem zu suchen um damit nen cope zu haben. Bits sind in dem Zusammenhang irrelevant, darüber regen sich generell nur Leute auf die von der Technik wenig verstehen. Geh dich mal über Cache informieren und was der bewirkt in der Technik. Leute wie du haben sich auch über die RX 6600 damals aufgeregt „nur 128 Bit“ bis dann kurze Zeit später das Theater beendet war und endlich alle verstanden hatten das es irrelevant ist und sogar ne Menge Strom spart.
 
Fighter1993 schrieb:
Warum macht man das Speicherinterface eigentlich kleiner?
Spart das enorm Platz?


Die alten AMD Karten hatten doch teilweise 512bit.
Neben dem Platzbedarf hat ein größeres Speicherinterface auch relativ viel Verlustleistung.
 
  • Gefällt mir
Reaktionen: SweetOhm und Fighter1993
theGucky schrieb:
Nur müsste die Kühlung vom VRAM etwas besser werden, mein GDDR6X bei der 4090FE wird bei ~23,5Gbps schon heißer als der GPU Hotspot.
Die absolute Temperatur ist völlig egal. Solange die Chips innerhalb ihrer Spezifikationen laufen. Niedrige Temperaturen haben für sich gesehen keinen Nutzen.
 
Wow, sehr interessante Diskussionen hier zum Thema Speicherinterface, da lernt man einiges :D

Ich hatte mich damals in HBM verguckt und hab mir dann eine Fury und später Vega 56 zugelegt. Leider ist der Zug im Consumerbereich abgefahren.
 
  • Gefällt mir
Reaktionen: M11E und SweetOhm
Tigerfox schrieb:
Und beim AD104 hat NV sich defintiv verkalkuliert, weil 12GB an 192Bit einfach zu wenig für die Rohleistung sind. Die 4070Ti könnte in UHD mehr, wie man an der nur wenig leistungsfähigeren 4070Ti Super sieht, die in UHD mit RT einen deutlich größeren Abstand zu 4070Ti aufbaut.
Also eigentlich liegt der Vorteil in den 4GB zusätzlichen VRAM, schreibt CB ja selber. Und einen deutlich größeren Abstand sehe ich da jetzt nicht so wirklich, es sind immer so um die 10% von der 4070ti auf die 4070ti super. Bei 4K RT sind es dann 14%
Und schaut man sich die einzelnen Spiele Details an, sieht man das der Unterschied bei 4K RT immer auch bei ca. 10% liegt. Das Spiel was den Schnitt nach oben treibt ist Ratchet & Clank in 4K RT wo der Vorsprung bei 45% liegt weil die 12GB Speicher zu wenig sind.
Die 192 Bit bei den 4070er Karten ist auf jeden Fall nicht zu wenig. Selbst die 128 Bit bei der 4060ti 16GB haben in allen Tests ausgereicht.
 
Galarius schrieb:
Nun bleibt zu hoffen das Nvidia nicht künstlich die Bandbreite mit kleinen Speicherinterfaces beschneided ....... Freu mich schon auf ne 5080 mit 128 bit.
Das Interface ist per se völlig nebensächlich, entscheidend ist die Bandbreite und wie effizient die GPU damit umgeht. Die Leistung einer RTX 4080 mit einer RTX 4060 neuen Speicher und 128 bit Interface wäre doch optimal.

Ich sehe auch nicht wo es Nvidias Karten an Bandbreite fehlt, von daher ist die Kritik substanzlos.
Ergänzung ()

PeacemakerAT schrieb:
Denkst du wirklich das ein so breites Interface zum Einsatz kommt? 😅
Was soll ein breites Interface bringen, wenn ein schmales in Verbindung mit etwas Cache Chipgröße spart und effizienter ist?
 
  • Gefällt mir
Reaktionen: Fallout667
Völlig unter den Tisch gefallen zu sein scheint GDDR6W bzw. eine Neuauflage als GDDR7W. Diese Idee hat in der Praxis aus irgendwelchen Gründen keinen Fuß fassen können...
 
Quidproquo77 schrieb:
Was soll ein breites Interface bringen, wenn ein schmales in Verbindung mit etwas Cache Chipgröße spart und effizienter ist?
Das kommt mir so vor wie bei manchen Autofans die keinen neuen Motoren wollen sondern einen schönen alten V8 Motor mit mega viel Hubraum. Das Ding ist heute schlechter als ein moderner effizienter V6. Da kann ich es allerdings noch nachvollziehen weil der Klang von so einem alten Motor einfach toll ist.

Bei GPUs kann ich sowas allerdings nicht wirklich verstehen. Wozu soll ich krampfhaft 512 Bit interfaces verbauen wenn es doch mit 192 Bit genauso gut geht. Die 512 Bit klingen ja nicht besser oder bringen mir sonst einen Vorteil, im Gegenteil, es ist teurer, verbraucht mehr und erzeugt mehr Abwärme.

Aber viele Leute verstehen die Technik überhaupt nicht und wollen einfach überall möglichst große Zahlen in den Specs der Karte sehen. Weil größer ist besser, das war früher auch schon so und so weiter...
 
  • Gefällt mir
Reaktionen: maxrl und Quidproquo77
Tigerfox schrieb:
Wovon redest Du, 32Gbps ab Ende 2024 sind schonal 33% mehr ggü. 24Gbps bei GDDR6(X) aktuell und ab Mitte/Ende 2026 dann 36Gbps sind 50% mehr?

Hab auch gerade erst gesehen, dass bei 32Gbps von 16-24Gb-Modulen und bei 36Gbps von 24Gb+ die rede ist. Also doch 3GB-Module! Damit sind 12GB an 128Bit, 16GB an 192Bit und 24GB an 256Bit möglich!
ich rede von genau dem was ich geredet habe xD

den sprung von gddr7 zu gddr7 gen2. also von ende 2024 bis 2028
 
Pestplatte schrieb:
den sprung von gddr7 zu gddr7 gen2. also von ende 2024 bis 2028
Achso. Nunja, das entspricht in etwa dem, was vorherige Generationen von der 1. zur 2. Gen geschafft haben. Wir müssen uns nunmal an längere Entwicklungszeiträume gewöhnen, weil technische Grenzen immer wschwieriger zu überwinden werden.
 
Tigerfox schrieb:
Die 4070Ti ist ein Beispiel für zu wenig Bandbreite, die 4070S und 4070 in gewissem Maße auch.
Das müsste man erst einmal durch Tests feststellen. Die Karte verliert selbst in 4K kaum Leistung wegen der Bandbreite. Die Karte ist gut ausbalanciert, vor allem für WQHD.
Tigerfox schrieb:
Und beim AD104 hat NV sich defintiv verkalkuliert, weil 12GB an 192Bit einfach zu wenig für die Rohleistung sind.
In seltenen Fällen in 4K ja.
 
Pestplatte schrieb:
den sprung von gddr7 zu gddr7 gen2. also von ende 2024 bis 2028
Ja, wenn sich daran nichts ändern sollte ist bereits klar, dass es nicht bei GDDR7 bis dahin bleiben wird, sondern eine andere (Sub-)technologie übernehmen würde.
 
Zurück
Oben