News GDDR6X-Grafikspeicher: 21 Gbps und verdoppelte Kapazität von Micron ab 2021

Ich wette sobald die 2GB Chips da sind kommen die großen VRAM Varianten und die Titan zusammen mit den großen Quaddros bis zur RTX 6000 mit 48 GB
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Wundert mich ja, dass sich noch keiner über den 'MLC RAM' beschwert hat ^^
Spannend wäre ja ob die Signalqualität besser geworden ist, oder schon immer für 4 Spannungslevel ausgereicht hätte und das nur eine Kostenfrage war, oder in dem Bereich einfach die Technologie schwieriger umzusetzen ist. Da gehen immerhin eine ganze Menge Daten durch, die man auch erstmal mit niedriger Latenz verarbeiten muss.

Oder nimmt man da nun höhere Fehlerraten hin weil es meistens sowieso nur einzelne abweichende Pixel, oder verzerrte Meshes sind und Profis ja sowieso ecc haben?
So ein paar Fragen stellen sich da schon wenn so eine mächtige Veränderung Einzug hält.
 
  • Gefällt mir
Reaktionen: Salamitaktik und Haldi
boika schrieb:
Nvidia hat doch ihre Karten mit Samsung Chips präsentiert, ich werde versuchen Samsung zu bekommen.
??? Bei Samsung wird die GPU gefertigt. Bei Micron der Speicher. Worauf willst du da jetzt warten? Außer du meinst die 3070, da ist wohl vieles möglich.
 
Zuletzt bearbeitet von einem Moderator:
Steini1990 schrieb:
Es ist eigentlich so gut wie fix das in absehbarer Zeit die neuen RTX 3000 Karten mit doppeltem Speicher kommen werden. Wird vermutlich schneller passieren als viele glauben.
Vor 2021 können sie ja nicht kommen. Nur vor 2021 wäre "schneller als ich glaube".
 
Satan666 schrieb:
Freue mich aufs Übertakten, sollte ja einiges möglich sein.
Wieso?
Das ist brandneuer RAM der erst gerade hergestellt wird.
Kann gut sein das der bereits mit dem absoluten Limit betrieben wird.
Viel schlimmer der Speicher Controller. Der jetzt anstatt 2 4 states auslesen muss. Wie viel OC der verkraftet ist unmöglich vorraus zu sehen.
Aber ja. Freuen auf übertaktungs Tests zu ich mich auch.


johnieboy schrieb:
Wenn AMD Big Navi gut wird mit 16GB müsste ich aber auch meinen Acer X34 upgraden, weil der der nur Gsync kann und ohne Sync will ich auch nicht mehr spielen müssen.
Dann könnte ich aber genau so gut auch die 3090 nehmen, weil man für Big Navi + guten Monitor auch auf 1500€ kommen würde
Hat nVidia schon gut gemacht mit ihren G-Sync Monitoren! Tu ihnen den gefallen und Kauf eine 3090!


Hättest du von Anfang an ein bischen Weitsicht gehabt und ein Monitor mit Free-Sync der G-Sync kompatibel ist gekauft hättest du das Problem heute nicht.

Bigeagle schrieb:
Oder nimmt man da nun höhere Fehlerraten hin weil es meistens sowieso nur einzelne abweichende Pixel, oder verzerrte Meshes sind und Profis ja sowieso ecc haben?
So ein paar Fragen stellen sich da schon wenn so eine mächtige Veränderung Einzug hält.
Joa GDDR6X mit PAM4 ist technisch sehr interessant. Ich hoffe anandtech macht einen Deep Dive review davon.

Die Frage ist ja ob DDR6? (DDR5 wird momentan in Datenzentren verwendet und DDR6 war noch nicht spezifiziert oder?) auch auf PAM4 setzen wird und ob EEC überhaupt so leicht möglich ist.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Steht doch im Text das der RAM sehr moderat betrieben wird, 19-21 sind möglich und mit 19,5 wird er betrieben. Also am Limit ist da gar nichts, oder meinst du das anders?
 
Haldi schrieb:
Hat nVidia schon gut gemacht mit ihren G-Sync Monitoren! Tu ihnen den gefallen und Kauf eine 3090!
Hättest du von Anfang an ein bischen Weitsicht gehabt und ein Monitor mit Free-Sync der G-Sync kompatibel ist gekauft hättest du das Problem heute nicht.

Ja, ist schon blöd das ich 2015 nicht die Weitsicht hatte nen Monitor mit dem 2019 eingeführten G-Sync compatible zu kaufen :lol:

x34.PNG

Wenn man mal wieder keine Ahnung hat.....
 
  • Gefällt mir
Reaktionen: Cool Master
Bestimmt wird GDDR6X wieder exklusiv für Nvidia produziert werden, so wie damals GDDR5X bei Pascal.

Bei den großen Mengen die Nvidia abnimmt lohnt sich das auch für beide Seiten.
 
Die Frage die sich aktuell Stellt ist...
Wieviel Speicher braucht 4K?
Reichen die 10 von der 3080 oder doch lieber warten?

Greez
 
Die selbe Frage habe ich mir auch schon gestellt.
Ich habe bis jetzt nur ein mal für ein Spiel aufgerüstet (Witcher 3) und für Cyberpunk werde ich es noch einmal tun.
Am Ende bleibt mir nur zu hoffen das 10GB reichen, oder in den sauren Apfel zu beißen und 1500€ auszugeben. Eine Strix 3080 mit 20GB kostet bestimmt auch 1000€. Da kann ich auch gleich zur 3090 greifen.
Man kann sich ja auch einfach mal was unvernünftiges gönnen. Beim Auto interessiert das auch niemand wie viel das kostet. Was da für Geld verbrannt wird...
AMD müsste schon echt überzeugen damit die in Frage kommen.
 
@Volker
Dennoch sollen die Chips bei 50 Prozent mehr Bandbreite weniger Energie verbrauchen.
Das passt nicht zur Grafik, die 15 % weniger Enerige pro übertragenem Bit angibt.
Bei 50 % mehr Bandbreite wäre das ein deutlich erhöhten Energiebedarf.

Und PAM4 heißt, dass sie nun quasi QDR statt DDR fahren?
 
eyedexe schrieb:
Ich glaube ganz so lange wird man nicht warten müssen

Die RTX 3070 setzt auf GDDR6, die kann auch schon früher mit 16GB kommen.... nämlich als AMD-Konter

Ich persönlich glaube nicht, dass die AMD-Karte die RTX3080 schlagen wird von der Leistung. Einfach deswegen, weil AMD sich wie alle Jahre zuvor an die maximalen 300W halten wird, während Nvidia diese ganz klar überschreitet mit der RTX 3080. Ich glaube auch nicht, dass AMD so viel efizienter ist, dass die mit 300 Watt eine 320W-Karte von Nvidia schlagen können. Schon gar nicht mit GDDR6 und 512Bit-Interface, der einiges an Strohm verbraucht... Daher wird es für Nvidia reichen die AMD-Karte mit einer RTX 3070TI 16 GB GDDR6 zu kontern. Die RTX 3080 mit 20 GB GDDR6X kommt dann nächstes Jahr, wenn die größeren GDDR6X-Modulle verfügbar sind. Klar könnte man auch weitere Chips auf der Rückseite verbauen, aber das würde den Preis und die Verlustleistung noch weiter in die Höhe treiben und das hat Nvidia mit der RTX 3090 bereits im Sortiment..

Bigeagle schrieb:
Wundert mich ja, dass sich noch keiner über den 'MLC RAM' beschwert hat ^^
Eine SSD mit MLC/TLC oder gar QLC wird langsamer. Der RAM hier wird mit dem vierfachsignal schneller. Das ist schon ein Unterschied bei der Bewertung durch den Konsumenten.
Auch sind einem die Daten auf einer SSD doch wichtiger, als die Daten im Grafikspeicher, wo dann irgendwo ein Pixelfehler auf dem Bilschirm im schlimmsten Fall auftaucht...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Haldi
"Das passende Speicherinterface" hat übrigens schon auch die Radeon Instinct MI100.

Für mich interessant: Wie hoch ist denn die Leistungsaufnahme des Speichers dabei? Also wenn man wirklich herstellerseitig das Interface so auslegt und maximal ausnutzt? Als HBM rauskam wurde das ja auch damit begründet dass [G]DDRx irgendwann in naher Zukunft gegen eine Wand laufen wird weil die TPD zu sehr steigt. War das nur Marketing?
 
HBM2
Hayda Ministral schrieb:
"Das passende Speicherinterface" hat übrigens schon auch die Radeon Instinct MI100.

HBM2 vs GDDR6
Soweit ich das verstehe müssten zu viele Verbindungen bei HBM2 geschaffen werden was die Architektur überlasten würde.
 
Satan666 schrieb:
Steht doch im Text das der RAM sehr moderat betrieben wird, 19-21 sind möglich und mit 19,5 wird er betrieben. Also am Limit ist da gar nichts, oder meinst du das anders?
Naja die 19-21 sind das Theoretisch spezifizierte Limit.
Kann gut sein das die erste Generation Speicher Controller oder die Chips selbst gar nicht so schnell arbeiten werden können.
Aber das ist im voraus immer sehr schwer zu erraten.
Ergänzung ()

xexex schrieb:
Danke für den Link. Hab den verpasst.

Aber ist eben nur eine Technische Erklärung ohne Praxis versuche. Sagen sie auch selbst.
"At any rate, as this is a market overview rather than a technical deep dive, the details on GDDR6X are slim."
 
Zuletzt bearbeitet:
Weil oben drüber geschrieben wurde, was hätte ein 512bit interface mit GDDR6 bei AMD für eine Bandbreite? Weiß das jemand?
 
brezelbieber schrieb:
Die Frage die sich aktuell Stellt ist...
Wieviel Speicher braucht 4K?
Reichen die 10 von der 3080 oder doch lieber warten?

Greez

Kommt auf das Spiel an. Ich hab ne 1080 und hatte bis jetzt noch keine Probleme. Glaub mit Divinity 2 hatte ich mal 7,6 oder 7,8 GB mit div. Mods.

Ich halte 10 GB allerdings für etwas wenig im Jahr 2020, vor allem wenn man sie in UHD nutzen will. Aber gut ich kauf auch eine 3090 daher habe ich das Problem erst mal nicht.
 
  • Gefällt mir
Reaktionen: brezelbieber
Zurück
Oben