News Samsung: Entwicklung von GDDR7 mit 32 Gbps abgeschlossen

Volker

Ost 1
Teammitglied
Registriert
Juni 2001
Beiträge
18.362
Schon lange hinter den Kulissen vorbereitet, startet die nächste Speichergeneration jetzt offiziell: GDDR7 ist als nächster Grafikspeicher vorgesehen. Samsung will ihn mit 32 Gbps anbieten und verspricht gegenüber aktuell genutztem GDDR6-Speicher eine deutlich erhöhte Bandbreite, aber auch Energieeinsparungen.

Zur News: Samsung: Entwicklung von GDDR7 mit 32 Gbps abgeschlossen
 
  • Gefällt mir
Reaktionen: flo.murr, Tanzmusikus, Haldi und 9 andere
Den kann NVIDIA dann an ein 64Bit Interface anschließen damit man ja nicht davon profitieren kann.
 
  • Gefällt mir
Reaktionen: Melchior, kiffmet, DDM_Reaper20 und 70 andere
denk mit PCI-e 5.0 Grakas von Nvidia und der GDDR7 könnte wieder ein sinnvolles upgrade dann bevorstehen (hoffe ich), auch wenn der PCI-e 5.0 erstmal overkill ist in der ersten Generation einer 5.0 Karte, wäre es vom Gefühl mal was "neues innovatives". wenn sie wieder nicht an dem Speicherinterface rumkrüppeln allerdings
Ergänzung ()

Steini1990 schrieb:
Den kann NVIDIA dann an ein 64Bit Interface anschließen damit man ja nicht davon profitieren kann.
Nvidia gibt nicht mehr als nötig , das ist klar. ein Speicher interface ist verhältnismäßig teuer und da ist nvidia bekannt für sich alles gerne mit Deluxe Aufschlag zahlen zu lassen. aber warum einer zukünftigen RTX5050 mehr geben wenn es entry gamer zufrieden stellen soll. das haben sie aktuell bereits mit der midrage 4060 doch gezeigt dass es trotzdem Abnehmer findet egal wie sehr man es kastriert. Hauptsache die Nomenklatur wird dem User für Midrage verkauft
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Kommando
Nett
Aber hätte lieber HBM auf den nächsten Gamerkarten gehabt
 
  • Gefällt mir
Reaktionen: k0n, C4rp3di3m, EntelodonX und 8 andere
Das Problem mit HBM ist nicht mal der Speicher an sich, sondern das packaging.
 
Steini1990 schrieb:
Den kann NVIDIA dann an ein 64Bit Interface anschließen damit man ja nicht davon profitieren kann.
Solange es die Bandbreite erreicht ist das doch kein Problem. Interfacebreite ist Mittel zum Zweck und sonst eher störend, es macht Boards komplex, groß und teuer.

Ich würde eher eine rtx 4060 mit ihrem 128 bit Interface und 288 Gbit/s Bandbreite haben als eine 8800 GTX mit ihrem 384 bit Interface und 86.4 Gbit/s Bandbreite.
 
  • Gefällt mir
Reaktionen: netGuy, MalWiederIch, c9hris und 5 andere
Steini1990 schrieb:
Den kann NVIDIA dann an ein 64Bit Interface anschließen damit man ja nicht davon profitieren kann.
Ich denke gar nicht so an Einsteigerkarten, sondern eher High-End. Dort würde ein 256 bit Interface dann ausreichen, um auf 1.000 GB/s zu kommen. Die gesparte Chipfläche kann man wieder für etwas anderes nutzen, vllt mehr Shader oder RT Cores.
Könnte mir aber schon vorstellen, dass nvidia bei der 5060 dann ein 64 bit Interface verbaut :lol:
Ein bisschen mehr Shader und RT und schon sind 499€ gerechtfertigt ^^
 
Chesterfield schrieb:
Nvidia gibt nicht mehr als nötig , das ist klar. ein Speicher interface ist verhältnismäßig teuer und da ist nvidia bekannt für sich alles gerne mit Deluxe Aufschlag zahlen zu lassen. aber warum einer zukünftigen RTX5050 mehr geben wenn es entry gamer zufrieden stellen soll. das haben sie aktuell bereits mit der midrage 4060 doch gezeigt dass es trotzdem Abnehmer findet egal wie sehr man es kastriert. Hauptsache die Nomenklatur wird dem User für Midrage verkauft

Stimmt zum Glück nicht.


Beitrag im Thema "RX 7600 Predator BiFrost: Acers erste Radeon hat einen Radial- und einen Axiallüfter" https://www.computerbase.de/forum/t...-und-einen-axialluefter.2151680/post-28393187

"(...) 7600 oder 4060, ich habe mal geschaut was meine zwei Großhändler so „on stock“ haben, da bestellt kein Einzelhändler nach.

Das bis zum Tode beschnittene Zeug liegt wie Blei in den Regalen und AMD pennt da im Hinblick auf 7700/7800/FSR3 gemütlich vor sich hin. (...)"
 
  • Gefällt mir
Reaktionen: Chismon
Davon 64 GB auf dem Motherboard verlötet würde mal einenn ordentlichen Boost bringen.
 
GDDR/DDR vs. HBM
Ist genauso wie LCD vs. OLED

Viele schwören auf ihren VA/IPS/MicroLED/QLED
Und viele schwören auf OLED.

Ich würde auch lieber gerne HBM nehmen.
Habe aber immernoch einen 144Hz TN
Und ein 65" LG C2

Wird irgendwann hoffentlich auch noch mal HBM Consumer GPUs geben. Im Datacenter/Server sind sie Gang und gebe und nicht mehr weg zu denken.

Wäre schön wenn man das nach unten hin nachreichen würde
 
Es fehlt jetzt eigentlich nur noch die offizielle SK Hynix GDDR7 Ankündigung, dann wäre das für die großen 3 Speicherhersteller komplett.

Bis zu den kommenden Grafikkarten-Generationen ist ja scheinbar noch viel Zeit und inwiefern GDDR7 abseits der Energieersparnis einen großen Vorteil bieten werden, wenn das von nVidia und AMD/RTG mit immer weiter beschnittenen Speicherinterfaces kontakariert wird, bleibt abzuwarten.

Es erinnert etwas an die Anfang dieses Jahres aufgekommene/ersichtliche Zweckentfremdung von Upscaletechniken bei Entwicklern von Spielen, um letzteres weniger optimieren zu müssen (hier wird neue bessere Technologie in Form von Speicher (GDDR7) voraussichtlich zur Kostenersparmis bewusst mit schwacher Hardware (Speicherinterfaces) verschnitten/gepaart in unteren und mittleren Leistungsklassen).

Allzu euphorisch bin ich da jedendalls nicht, denn die Grafikkarten-Chipentwickler bieten immer weniger für mehr Geld an und mittlerweile sind die Produkte im Einsteiger- und Mittelklassesegment für Kunden eher ziemlich durchwachsen und unrund (aufrüsten fast gar nicht mehr lohnt), was ich für eine ungute Entwicklung halte.

Ich hoffe Intel wird sich als Kontrast da wenigstens mit zukünftigen Arc Produkten vergleichsweise hervortun und nVidia und AMD/RTG damit Marktanteile abnehmen können.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ThePlayer
Die Frage ist ja nicht ob GDDR oder HBM, sondern ob die Kunden für HBM Speicher bereit sind mehr Geld auszugeben und scheinbar war HBM kein gutes Verkaufsargument. Lieber 16GB GDDR oder 8GB HBM? Oder für 16GB HBM 100€ mehr bezahlen für 2-3% Gesamt-Mehr-Performance?

Bei OLED kann man einen Unterschied direkt erkennen und dafür bezahlt man auch. Die meisten können mit HBM überhaupt nichts anfangen.
 
  • Gefällt mir
Reaktionen: MalWiederIch, Meines und Puscha
the_pi_man schrieb:
Davon 64 GB auf dem Motherboard verlötet ordentlichen Boost
Nope!
DDR ist dafür gemacht viele kleine Anfragen schnell zu beantworten, aka kurze Latenz bei beschränkter Bandbreite.
GDDR ist dafür gemacht grosse Datenmengen gleichzeitig zu übertragen, aber mit erhöhter Latenz.

Und wie wir durch AMDs 3D V-Cache gelernt haben, ist schneller Speicher in der Nähe der CPU King,
weil eben extrem kurze Wege, extrem kurze Latenz, wir müssen dadurch auch noch seltener auf dem Ram zugreifen, was das Ganze neben schneller auch noch sparsamer macht.

Also für eine CPU die Latenzen des Speichers deutlich zur erhöhen mit dem Vorteil grosser Bandbreite hilft uns nicht wirklich weiter.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: mihe und Kai85
Lord B. schrieb:
Klingt spannend, vor allem die Energie Ersparnis, da hat GDDR6/X ja nicht gerade geglänzt.
Frage ich mich im Nachhinein auch... GDDR6 überträgt klassischerweise 1 bit pro Takt.
Bei GDDR6X hieß es er kann 2bit pro Takt + bessere Effizienz: klick
Was ja eigentlich bedeutet die Übertragung benötigt nur die halbe Zeit oder es können doppelt so viele Daten in der gleichen Zeit übertragen werden. Oder eben die gleiche Menge an Daten, aber es muss weniger (kürzer) Arbeit verrichtet werden -> effizienter.
In der Realität sind die GDDR6X Module aber nur "sauheiß" geworden und am Ende lag normaler GDDR6 taktmäßig sehr nah, also irgendwo zwischen 19-22Gbits und dementsprechend die Speicherbandbreite auch.
Mit der RTX 3070 / 3070Ti konnte man sogar nahezu 1:1 vergleichen was der Unterschied zwischen normal und X ausmacht. Die deutlich höhere Temperatur des X Speichers kam nicht etwa aufgrund kleinerer Fertigungsstrukturen oder schlechter Kühler zustande. Der Verbrauch der Karte stieg von 220W auf 290W, wo bleibt da der Effizienzgewinn oder war es glatt gelogen?

Der angekündigte GDDR6W Speicher scheint bis jetzt auch eine Luftnummer gewesen zu sein.

Ob GDDR7 nun mit 3bit pro 2 Takte der Heilsbringer wird?
 
  • Gefällt mir
Reaktionen: Lord B.
Statt nur stumpf immer mehr Bandbreite zu bringen, sollte auch mal wieder was an der Kapazität gemacht werden.
16Gbit, also 2 Gigabyte Speichergröße haben wir schließlich schon 2018 gesehen als GDDR6 in die Massenproduktion ging.

Dieser Schritt wäre längst hinfällig, da Speicherinterfaces von Grafikkarten eher kleiner werden (128-bit selbst für 400 USD-Karten), aber der Speicherbedarf von Spielen aktuell stark wächst (HP Hogwarts Legacy, TLOA, etc.). 128-bit heisst ja maximal 4 Chips a 2GB, also 8GB insgesamt. Es sei denn man nutzt Clamshell, für das man aber teure PCBs benötigt. Daher macht das kaum ein Hersteller. Siehe RX6500 XT 8GB (nur ein Nischenmodell von Sapphire), oder 4060ti, auf die auch kein Hersteller Bock hat.

Eine RX 7600 oder RTX 4060 mit 24Gbit(3 GB) Speicherchips hätten dann jeweils 12, statt 8GB Kapazität, was diese Produkte deutlich zukunftsfähiger machen würde.
 
  • Gefällt mir
Reaktionen: FrankN84, estros, bad_sign und 2 andere
2025 kommen neue Grafikkarten und die dann hoffentlich mit dem neuen Speicher. Da kann man sich schon mal drauf freuen.
 
Wie ist das mit den Einheiten?
GDDR7 bietet aktuell Geschwindigkeiten von 32 Gbps bzw. 36 Gbps.
Apple gibt an das z.B. ihr M2 Chip eine unified memory Bandbreite von 100 GB/s hat.
100 GB/s = 800 Gbps
Kann da sein?
Ist die Anbindung so viel schneller?
GDDR Speicher ist doch auch auf der Grafikkarte verlötet und müsste daher doch schneller anzubinden sein oder?
 
Vielleicht sollte man Samsung mal den Tipp geben, dass sie an NVIDIA nichts kleiner als 16GB verkaufen sollten :'D
 
  • Gefällt mir
Reaktionen: M11E, usernamehere, Coeckchen und eine weitere Person
Zurück
Oben