GeForce RTX 3080 Grafikspeicher: Warum nur "10 oder 20 GB"?

Larnak

Lt. Junior Grade
Registriert
Nov. 2017
Beiträge
265
Moin!

Nachdem ich bisher keine gute Erklärung gefunden habe:
In Artikeln und Kommentaren hier und woanders las man zum Thema Grafikspeicher der 3080 häufiger, dass 12 oder 16 GB, wie von vielen Spielern gefordert, nicht möglich gewesen seien, sondern es nur die Option auf 20 gebe. Mich interessiert die technische Begründung dafür. Es scheint ja mit dem Speicher-Interface zusammenzuhängen: Offenbar benötigt ein Speicher-Modul entweder 16 oder 32 bit davon (siehe 320 / 10 = 32 bei der 3080 bzw. 384 / 24 = 16 bei der 3090). Aber warum ist das so? Und wodurch ist das Speicher-Interface begrenzt, was also sprach dagegen, auch der 3080 die 384 zu verpassen mit 12 GB Speicher?

Vielleicht hat ja jemand Ahnung oder einen Link :)
 
Du hast es dir im Grunde schon selbst beantwortet.

Was dagegen spricht?
Ganz einfach die Gewinnmarge von Nvidia und ihr zukünftig geplantes Produktportfolio.
 
  • Gefällt mir
Reaktionen: Asghan, dsxiadndxe, Rickmer und eine weitere Person
Larnak schrieb:
dass 12 oder 16 GB, wie von vielen Spielern gefordert,
Ich kenn da ehrlich gesagt kein Game was so viel VRAM fordern würde.

Cyberpunk fordert 8GB auf Ultra, und 10 GB auf RT-Ultra.
Flight Simulator 2020 fordert 8GB

Welche Spiele fordern denn 12 oder gar 16GB VRAM ?
 
@bart0rn Sie fordern es vielleicht nicht, aber nehmen sich gerne mehr. Außerdem sind die Presets auch nicht immer wirklich das höchste der Einstellungen. FS 2020 wurde hier im Forum schon mal beleuchtet. Der lief mit einer RTX 3080 mit üblen Frameeinbrüchen und mit einer RTX 3090 ohne Probleme, da der Speicher nicht reichte. Gestern bei einem Kumpel AC Valhalla gesehen, der hatte auch knapp 11 GB auf 4K und Ultra in Gebrauch, war aber mit einer RX 6900 XT kein Problem. Wer sich bei hohen Auflösungen nicht absichtlich beschränken will oder zwingend Nvidia Features benötigt, greift zur Zeit nicht unbedingt zu einer RTX Karte.
 
Dagegen sprach die Firmenpolitik von Nvidia. Technisch wäre natürlich alles möglich aber es umzusetzen ist natürlich extrem schwer und stellenweise fast unmöglich.
Wenn ich da an meinen 970er Speicherkrüppel denke, verspüre ich immer noch leichte Verkrampfungen in meiner Faust!
 
  • Gefällt mir
Reaktionen: halbtuer2
Er schreibt von SpieleRn gefordert, nicht von Spielen.
 
HZD mit Ultra Texturen füllt bei mir (6800XT, 3440x1440) schön die 16GB, und hat auch Streaming Ruckler bei weniger als 12GB laut diversen User Tests. Obs die Ulra Texturen nun braucht oder nicht sei dahingestellt, aber es gibt durchaus Beispiele. wo 10GB knapp werden in dem Ballpark (3080, 4k)
 
  • Gefällt mir
Reaktionen: Asghan
Larnak schrieb:
neben hauptsächlich wirtschaftlichen Aspekten...
solle halt eine bestimmt Leistung erzielt werden.
Bzw. muss ja Chip Leistung mit dem Speicherinterface zusammen passen.
Auch welcher Speicher aktuell ist, Verträge ect.
Bei 3dcenter gibts ja immer so schöne Balkendiagramme wie die einzelnen Karten wo, wie Leistungsfähig sind.
Sicherleich hat jeder mehr Speicher erwartet... aber kann ja noch kommen. -> Refresh
Neben ein paar Features die jeder Werten kann wie er mag, hat AMD grundsätzlich in Leistung und deutlich bei der Effizienz aufgeschlossen.
mit den 16GB haben sie für viele nen wichtigen Faktor an Bord.

Ist aber eh alles egal.
Es gibt nix zu kaufen.
Von mir aus hätten sie die Generation auch 1-2 Jahre später bringen können. (sofern die Pandemie nicht noch 3 Jahre oder länger geht...)
Es muss einfach alles immer perfekt funktionieren...
Wenn in diesem fragilen System was nicht klappt. BOOM.

bin gespannt ob die Situation jeh wieder "normal" wird.
wenn man sieht was einige bereit sind auf den Tisch zu legen...
Wird es wohl nie wieder so eine UVP geben.
alle hatten sich beschwert das die Grafikkarten immer teurer wurden...
jetzt naja egal...

MfG
 
Tobi47 schrieb:
Du hast es dir im Grunde schon selbst beantwortet.
Ich würde gern ein "Warum" weiter kommen als ich bisher bin :D Und warum es diese Begrenzung durch das Interface gibt, kann ich mir leider nicht beantworten. Da fehlt mir das technische Wissen, wie die verschiedenen Chips praktisch verbunden werden.

@Zwirbelkatz: Danke, Aber wenn ich es richtig sehe, steht da auch nur, dass es so ist, aber nicht warum :(
@bart0rn: Ich meinte SpieleR, nicht Spiele :)
 
  • Gefällt mir
Reaktionen: Zwirbelkatz
Larnak schrieb:
Offenbar benötigt ein Speicher-Modul entweder 16 oder 32 bit davon (siehe 320 / 10 = 32 bei der 3080 bzw. 384 / 24 = 16 bei der 3090). Aber warum ist das so?
Es sind immer 32 Bit und das liegt daran das es die GDDR Speicher-ICs nur in exakt dieser Bit-breite gibt. Dazu gibt es den GDDR6x derzeit nur als 1GB Chip (2GB soll wohl irgendwann Q2 dieses Jahr kommen)

Ein 320 Bit Speicherinterface kann also entweder 10 oder 20 dieser ICs bedienen. Das ergibt 10GB oder 20GB an Speicher.

Wenn man eine andere Menge an Speicher anbindet so wir das assymetrisch. Wurde bei manchen Karten schon gemacht, die hatten dann z.B. 3GB von denen nur 2GB die volle Busbreite hatten. oder halt der Extremfall wie bei der GTX970 mit den 3,5GB + 0,5GB ;-)

Auf mainboards übertragen: mit einer Modulgröße ab 4GB und Dualchannel sind halt entweder 8GB (2 Module) oder 16GB (4 Module) möglich. Für 12 GB müsste man 3 Module stecken und hat den Dualchannel Betrieb nicht über die volle Größe.
 
  • Gefällt mir
Reaktionen: Porky Pig, sebbolein, Tunguska und 2 andere
Und denkt dran....die Karten sind ja quasi gerade erst released.
Das war wieder komplett absicht von Nvidia die User 2x zur Kasse zu bitten.
Oder glaubt ihr an ein Epic Fail von Nvidia ?

Der allerbeste Schlag ins Gesicht eines jeden getreuen RTX3080 Käufers sind die 3060er Karten mit 12GB Vram. Komplett verblödeter Quatsch von Nvidia. Dümmer kann man das nicht machern.
Grafikkarten, die den Vram nicht brauchen, bekommen ihn und Karten, die ihn brauchen können bekommen ihn nicht. 3080TI ist ja sogar erstmal gecancelt.

Deswegen ganz klar durch die aktuelle Situation entweder eine RX6900XT oder eine RX6800.
Die 6800XT ist einfach aktuell preislich zu weit daneben und die Partner-Karten sind gut so, aber reißen jetz auch nicht gleich alles vom Teller.

Wer so wie ich ohnehin auf Wakü raus will, dem nützt ein teures Modell wenig. Da ist die Chipgüte wesendlich entscheidender. Deswegen habe ich mich für eine 6900XT entschieden.
Wers nicht aufbringen kann, der ist mit einer 6800er bestens bedient.

Die 3080 ist ja nicht komplett Schrott, aber da wo sie die Stärken gegenüber einer 6800XT ausspielen kann wird ihr in naher Zukunft wohl der Vram ausgehen.
In 4K glänzt eine 3080er ja aktuell gegen eine 6800XT. Fragt sich wie Lange.
Und wer 1440P oder bis zu 3440X1440P spielt....dem könnte eine 3080er auf Dauer sogar gefallen und hat bei RT die bessere Planungssicherheit.

Und dann kommt Preis und Verfügbarkeit. Dann verlierts die 3080er endgültig für mich.
Noch absurdere Preise und noch schlechtere Verfügbarkeit.
Neht eine 6800 oder wenn ihrs leisten könnt eine 6900XT.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Nickel
Rodger schrieb:
3080TI ist ja sogar erstmal gecancelt.
Die 3080(TI) wird erst kommen wenn es die 2GB Chips gibt und das dauert noch. Ist zumindest meine Vorhersage (und das schon länger). Eine karte mit 20 Chips wäre zu teuer um sie sinnvoll zwischen 3080 und 3090 zu positionieren.
 
Rodger schrieb:
Epic Fail von Nvidia
naja sie mussten liefern... weil ja klar war das AMD was bringt.
Da wahr wohl viel panik dabei... die niedrige UVP war wohl auch ein ordentlicher Tiefschlag für AMD.
Wenn man irgendwas glauben kann wird ja jeder Karte gekauft.
NV wird gut Gewinn machen... den Gewinn von Mindfactory ect. wird man wohl auch durch die Decke gehen sehen!

MfG
 
@Jesterfox
Da kommen wir der Sache doch schon näher :D Danke
Hat das auch was mit der Anzahl der Pins (oder wie man die Chip-Beinchen auch immer richtig nennen mag) zu tun? Und es muss ja dann zumindest einen guten Grund geben, warum man nicht einfach das Speicherinterface ein bisschen hoch oder runter setzt, um dann den Speicher so angeschlossen zu bekommen, wie man es eigentlich will - Gerade bei der GTX970 gab es ja richtiggehend einen Shitstorm deswegen.

"halbe Busbreite" - deswegen schrieb ich "32 oder 16 bit", aber das ist nicht das gleiche?

Bei der 3090 sind entsprechend alle Speichermodule nur mit "halber Busbreite" angeschlossen?

Rodger schrieb:
Oder glaubt ihr an ein Epic Fail von Nvidia ?
Nein, ich "glaube" an technische Limitierungen, siehe die anderen Beispiele von Jesterfox. Das macht man ja nicht aus Langeweile.
Um die zu besser zu verstehen, hab ich gefragt :)
 
Larnak schrieb:
"halbe Busbreite" - deswegen schrieb ich "32 oder 16 bit", aber das ist nicht das gleiche?
Halbe Busbreite gegenüber der GPU, nicht gegenüber der Chips. Bei der 3080 wäre das so wie wenn man 15 Chips für 15GB verbaut. Dann hätten 10GB eine 320Bit Anbindung und 5GB eine 160Bit Anbindung. Das wäre wohl noch die wahrscheinlichste Variante gewesen wenn NVidia unbedingt mehr Speicher verbauen hätte wollen. Aber ist halt auch nicht Idel. Mit 20 Chips wäre die Karte zu teuer geworden, vor allem da NV ganz sicher wusste dass ihnen AMD mit der aktuellen Generation dicht im Nacken sitzen wird.

Und ja, die Anzahl der Pins eines Chips resultiert daraus wie viel Bit an Busbreite verwendet wird. Ist aber nicht wirklich der limitierende Faktor da man das recht frei anpassen könnte.

Aber eine Vergrößerung der Busbreite der GPU zieht noch einiges nach sich... ein 512GB Interface um 16 Chips anzubinden macht auch die Platine teuer da eben die 512 Datenleitungen entsprechend geführt werden müssen. Das hatte ATI mal bei der 2900XT probiert und dann ganz schnell wieder sein lassen...


Von daher ist der Infinity-Cache von AMD gleich doppelt gut für sie: das 256Bit Interface ist billiger beim PCB und es ermöglicht eine 16GB Bestückung.
 
  • Gefällt mir
Reaktionen: Larnak und Baal Netbeck
Larnak schrieb:
Und wodurch ist das Speicher-Interface begrenzt, was also sprach dagegen, auch der 3080 die 384 zu verpassen mit 12 GB Speicher?
Das sind ja schon teildeaktivierte GPUs.
Um auch GPUs mit Produktionsfehlern noch größteneils verwenden zu können wird für eine 3080 ein Bereich deaktiviert...und das beinhaltet dann immer die gleiche Anzahl Schader(usw.) und auch den dazugehörigen Teil des Speicherinterfaces.

Damit kann dann keiner hingehen und es auf krumme Art abwandeln....sonst wäre die Bandbreite geringer und es wäre keine 3080 mehr.

Statt 10 1GB Chips könnten 20 1GB Chips(mit halber Anbindung) verwendet werden oder 10 2GB Chips..beides bringt dich auf 20GB.
Aber für 16 müsstest du noch mehr von Speicherinterface deaktivieren.
 
  • Gefällt mir
Reaktionen: Larnak
@Jesterfox
Ok. Theoretisch könnte man also sehr wohl das Speicher-Interface erhöhen, da das aber eine "feste" Größe des Grafikchips / dessen Architektur ist, kann man nicht mal eben einen Schieberegler hoch drehen, sondern müsste nicht nur den Chip, sondern auch das PCB umfassend erweitern.

"Halbe Busbreite gegenüber der GPU, nicht gegenüber der Chips"
Der Unterschied ist mir nicht ganz klar. Meinst du damit, dass die Speicherchips schon mit 32 Bit am PCB hängen, dann von dort aber nur 16 Bit in den Grafikchip führen?

Trotzdem klingt das jetzt erst mal nicht so, als wären beispielsweise 8 GB mit 32 Bit und 4 GB mit 16 Bit eine krass schlechte oder schwierige Entscheidung gewesen - immerhin kommt der Speicher auf der 3090 ja auch durchweg mit den 16 Bit aus. Oder gibt es durch die unterschiedliche Anschlussart nochmal zusätzliche Nachteile?

@Baal Netbeck:
"und auch den dazugehörigen Teil des Speicherinterfaces."
Das hatte ich erst auch vermutet, aber die Reduktionen der GPC und SM haben zumindest ein anderes Verhältnis als die des Speicherinterfaces, sodass ich mir dann dachte, dass es da wohl doch keinen direkt zwingenden Zusammenhang gibt.
 
Zuletzt bearbeitet:
Eigentlich spielt es doch gar keine Rolle, die Karten gibts doch eh nicht.
 
Larnak schrieb:
"Halbe Busbreite gegenüber der GPU, nicht gegenüber der Chips"
Der Unterschied ist mir nicht ganz klar. Meinst du damit, dass die Speicherchips schon mit 32 Bit am PCB hängen, dann von dort aber nur 16 Bit in den Grafikchip führen?
Nun wirkt sich ja aber

Trotzdem klingt das jetzt erst mal nicht so, als wären beispielsweise 8 GB mit 32 Bit und 4 GB mit 16 Bit eine krass schlechte oder schwierige Entscheidung gewesen - immerhin kommt der Speicher auf der 3090 ja auch durchweg mit den 16 Bit aus. Oder gibt es durch die unterschiedliche Anschlussart nochmal zusätzliche Nachteile?
Da bist du etwas auf dem falschen Weg. Die Speicherchips sind immer mit den vollen 32 Bit angebunden. Der Unterschied ergibt sich aus Sicht der GPU:

Die GPU hat 320 Bit Busbreite, das bedeutet dass da auch 320 Anschlüsse nach draußen aufs PCB gehen (daher auch nicht einfach per Software skalierbar, richtig). Bei 10 Chips geht jede dieser Leitungen auf einen RAM-Chip zu. Bei 20 Chips geht jede diese Leitungen auf 2 Chips (die Auswahl welcher angesprochen wird erfolgt über die Adressleitungen, das ist auch die Konfiguration die auf der 3090 vorhanden ist).

Bei 15 Chips würden nun 160 Leitungen auf 2 Chips und die anderen 160 nur auf einen Chip gehen. Effekt: wenn die ersten 10GB adressiert werden können 320 Bit parallel übertragen werden, bei den letzten 5GB nur noch 160Bit (da die anderen 5 Chips in dem Bereich fehlen), wodurch der Datendurchsatz sich halbiert.
 
Zurück
Oben