News GeForce RTX 3000: Deutlich mehr Grafikspeicher kündigt sich an

Nvidia 3080 Software locked VRam

schon jemand über dieses Gerücht gestolpert?
Völlig undenkbar wäre es nicht dass die 3080 12GB hat, aber die 2GB softwareseitig solange deaktiviert bleiben bis bignavi released wird, um schnell reagieren zu können.
 
  • Gefällt mir
Reaktionen: Mcr-King
time-machine schrieb:
Nvidia 3080 Software locked VRam

schon jemand über dieses Gerücht gestolpert?
Völlig undenkbar wäre es nicht dass die 3080 12GB hat, aber die 2GB softwareseitig solange deaktiviert bleiben bis bignavi released wird, um schnell reagieren zu können.

Halte ich für ziemlich unwahrschienlich. Fängt schon bei der Produkt-Spezifikation an. Wie vermarkte ich so eine Karte, was schreibe ich auf den Produkt-Karton? 10GB? Wäre eine glatte Lüge. 12GB? Dann springen dir die Kunden 10min nach Inbetriebnahme aufs Dach, weil die Karte nur 10GB anzeigt.

Wahrscheinlicher wäre

3080 10GB 320bit
3080ti 12GB 384bit

Mit dem Softwarelock müsste Nvidia ja die höheren Kosten für die 12GB in die 10GB inkludieren. Den Split in zwei Modelle kann Nvidia so auch direkt mit einem höheren Preisaufschlag versehen und würde auch zum Nvidia der letzten Jahre passen.
 
  • Gefällt mir
Reaktionen: LukS, Mcr-King, time-machine und eine weitere Person
@time-machine
Die Boardpartner wüßten das dann auch und würden das vermutlich auch bewerben (wollen).
Außerdem würde das jeder Endkunde auf der Platine anhand der Chips erkennen können (sofern er den Kühlkörper abnimmt). Außerdem erzieht man dann den Kunden an, dass man später ein Topping bekommt, wenn man was von Nvidia kauft. Das will man als OEM sicher auch nicht riskieren.
Proagrument, wäre natürlich Kunden die auf ein Super-Refresh warten, damit zu strafen, dass sie die ganze Zeit umsonst gewartet hatten. Aber man will ja mit den Super-Refreshs nach der Big-Navi ja neue Käufer zum Kauf bewegen und nicht alte Kunden nachträglich und unerwartet belohnen.
 
Laut dem Update von gestern soll es doch keine 3080Ti geben.

Die zuletzt immer wieder in der Gerüchteküche kolportierte 20-GB-Version einer GeForce RTX 3080 soll es zumindest vorerst nicht geben, das will VideoCardz auf Basis unabhängiger Quellen in der Industrie bestätigen können. Das Topmodell GeForce RTX 3090 soll hingegen tatsächlich 24 GB GDDR6X auffahren und auch so und nicht GeForce RTX 3080 Ti heißen. Das neue GeForce-Topmodell böte damit 13 GB mehr als die aktuelle GeForce RTX 2080 Ti, die GeForce RTX 3080 in zweiter Reihe mit 10 statt 8 GB genau 2 GB mehr als die GeForce RTX 2080.
 
anthr4xpower schrieb:
https://wccftech.com/nvidia-geforce-gpu-generational-performance-per-dollar-gains-visualized/
Vor 12 Jahren: 9800GT für ~200$ Performance Faktor 1
Aktuell: RTX2060 für ~350$ Performance Faktor 7
D.h.: Nach 12 Jahren haben wir für das ca. 1,75x so viel Geld knapp 7x so viel Leistung. Imho nicht schlecht :)

Dazu kommt noch, dass Karten von damals bei den Effekten diese teilweise gar nicht berechnen können.
Naja in ein paar Tagen wissen wir was Sache ist.
Vielleicht will sich NV aber die "Doppel vram Ausführung" der kleinen für eine "Super" revision aufheben.
 
  • Gefällt mir
Reaktionen: Mcr-King
Iguana Gaming schrieb:
Laut dem Update von gestern soll es doch keine 3080Ti geben.
ja jetzt nicht, aber denkbar wäre als Refresh nächstes Jahr unter welchem Namen auch immer
Ergänzung ()

SKu schrieb:
3080 10GB 320bit
3080ti 12GB 384bit

absolut denkbar👍
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Verak Drezzt
Laphonso schrieb:
Das stimmt einfach nicht.
[...]
Deine Aussage @AnkH ist also genau verkehrt herum: Damals bekam man nur einen Bruchteil von dem, was die GPUs heute leisten.

Dein Post ist ein Paradebeispiel dafür, dass man offensichtlich heute nicht mehr in der Lage ist, die Relation zu sehen und völlig abstruse Vergleiche zieht. Ich fasse es praktisch nicht, dass Du mit "stimmt einfach nicht" einleitest, und dann, entschuldige die Ausdrucksweise, eben EXAKT den Blödsinn bringst, den ich kritisiert habe. Also versuche ich es (zum tausendsten Mal) halt einfach nochmals:

Du kannst doch nicht die Features der aktuellen Generation als Grund aufführen, dass eine Grafikkarte heute viel teurer sein darf als vor 5 Jahren? Das ist absurd hoch zehn, mit dieser Logik müsste seit der Veröffentlichung der allerersten dezidierten GPU jede Grafikkartengeneration teurer gewesen sein als der Vorgänger und wir müssten heute mehrere Tausend Euros für eine RTX-2080 berappen. Siehe auch Prozessoren: ein Topmodell kostet heute immer noch in etwa soviel wie vor 10 Jahren, hat aber mehr Kerne, neuere Architektur, besseren Speicherkontroller und und und. Da sagt auch keiner: ja, weil jetzt 10 Kerne aktuell sind, darf der 10 Kerner auch mehr als doppelt soviel kosten wie der 4 Kerner von vor zwei Jahren? Absurd...

Oder andersrum: es ist absolut klar, dass eine neue Grafikkartengeneration mehr leistet, als der Vorgänger. Kommen Features hinzu, ja dann darf man von mir aus ein paar Euros mehr verlangen. Aber ansonsten ist es einfach null erklärbar, warum das absolute Topmodell (bspw. eine GTX-280) vor ein paar Jahren 350-500€ kostete, heute aber weit über 1000€ (oder 650, wenn man den unsäglichen Vergleich zur 2080 ranzieht).

Auch wenn man direkt die getätigte Aussage nimmt, dass man für 350€ heute mehr Grafikkarte erhält als früher, mag ja betreffend Features etc. noch iwie stimmen (ist aber irrelevant), aber dann hat es sich. Für 350€ kriegt man heute eine RTX-2060 Super, diese Karte ist satte 30% langsamer als eine RTX-2080 oder gar 40% langsamer als eine 2080Ti, leistet also knapp die Hälfte (!) der aktuellen Topkarte. Und jetzt? Wenn ich vor 10 Jahren eine Grafikkarte für 350€ gekauft hatte, hatte ich mit grosser Wahrscheinlichkeit das TOPMODELL. Nicht eine Mitteklassekarte...
 
  • Gefällt mir
Reaktionen: LukS, B3nutzer und Mcr-King
AnkH schrieb:
Du kannst doch nicht die Features der aktuellen Generation als Grund aufführen, dass eine Grafikkarte heute viel teurer sein darf als vor 5 Jahren?

Ich kenne Deinen Job und Deine Branche nicht, aber in der Industrie und in meinem (IT) Umfeld, habe ich diese Diskussion laufend, und immer wieder höre ich "Hey, über Skalierung und technische Innovation müssen Sie mir als Kunden doch Kostenersparnisse realisieren", ignorieren aber genau den Zuwachs des Umfangs an Features und Services und die haben den gleichen logischen Fehlschluss, wie Du in Deinem Posting präsentiert hast.

Willkommen im Konflikt der Wirtschaftsprinzipien, AnkH! Ist mein berufliches täglich' Brot seit 2,5 Jahrzehnten in der IT und in der SLA/Vertragsgestaltung.

Überdies kannst Du, wenn Du seit Jahren für 300 bis 500 Euro eine GPU gekauft hast, auch HEUTE für 300 bis 500 Euro GPUs kaufen, was Dein Argumentationsfundament schon zerlegt ;)
Und ja, und diese können mehr als die 980Ti vor 5 Jahren.
 
  • Gefällt mir
Reaktionen: PS828, PHuV und evilhunter
Die ganze Diskussion über VRAM bringt mich in die Zeit vor ein paar Jahren zurück, als ein Forenmitglied auf einem Zettel skizzierte, wie die VRAM-Entwicklung "eigentlich" aussehen müsste. War einer meiner ersten Threads, die ich hier im Forum gelesen habe.
Damaliger Post:
Kasmopaya schrieb:
Du hast die Definition vom Vram Krüppel nicht verstanden. Das Vram/Rohleistungsverhältis der Titan X wird immer gleich bleiben, ergo ist sie 2015 oder 2016 immer im grünen Bereich. Es gibt nur ein Szenario wo eine Titan X zu einem Vram Krüppel werden würde, ein Game das massiv Vram frisst mit extrem hochauflösenden Texturen, die sagen wir mal 15GB+ Vram fressen, aber die Rohleistung nicht verbraten.(somit flüssig laufen würde hätte die Karte 24GB) Da es so ein Game nicht gibt und auch nicht in der Lebenszeit der Karte geben wird, ist die Karte bis 2019+ fein raus.

Hier der Graph der den benötigten Vram im Bezug zum Kaufjahr zusammen fasst:
1598599737766.png
Auch interessant, wie man damals davon ausging, kurze Zeit später würden 16GB VRAM erscheinen.
 
@AnkH naja so einfach ist das dann doch nicht.
Früher als ein Athlon XP oder Pentium bis 1000€(Mark?) gingen gab es noch nicht diese extreme Unterscheidung zwischen Consumer und Workstation.
Die Workstation CPU´s gehen ja heutzutage in die tausende Euro also hat auch bei den CPU´s eine Verteuerung stattgefunden (Consumer bis 800€, Workstation bis über 3000€).
Dafür haben sie aber technisch gesehen ne Schippe draufgelegt aber die Fertigung und Entwicklung ist wesentlich teurer geworden.
Da gabs auch mal ne Folie von AMD und /oder TSMC dazu.
Das ist definitiv auch ein Grund bei den Grakas + natürlich die fehlende Konkurrenz.
Ergänzung: Inflation kommt auch noch dazu.
 
  • Gefällt mir
Reaktionen: Laphonso
Nicht nur auch DSSL muss der Kunde zahlen und ander Software Sachen von NV sei es Treiber und anderes Gedöns. 😉

Praktisch wie bei der Konsole nur halt über die HW anstatt bei den Games.
 
xexex schrieb:
Und im PC sind heutzutage 32GB RAM verbaut, die schneller sind als jedes SSD Streaming.

Es ist bei den Konsolen eine "Notlösung" um möglichst schnell Texturen vom Datenträger nachladen zu können, nachgeladen müssen sie aber trotzdem werden und selbst die schnellste SSD erreicht nur einen Bruchteil der Geschwindigkeit vom RAM.

Ja, dumm nur, dass primär erst mal für die Konsole entwickelt wird und kein Entwickler auf diesem Planeten 2 Versionen von seinem Spiel bringen wird, sprich:
Du kriegst die portierte Konsolenversion am PC, die eben alles von der Platte läd und nicht aus dem RAM.
Der Umbau wäre viel zu aufwändig und somit finanziell nicht lohnenswert.
Somit kannst du auch 1TB RAM haben, ist vollkommen egal.
Und ja die PS5 SSD schafft nur einen Bruchteil der Geschwindigkeit des eigene DDR6 RAMs, am PC hast du aber nur DDR4 RAM und da würde ich nicht mehr von einem Bruchteil sprechen. Die SSD der PS5 ist nur 2.5 mal langsamer von der Geschwindigkeit und kommt somit schon nah ran an die PC RAM Geschwindigkeit.
Nicht einfach behaupten, sondern auf die Zahlen sehen.
 
GrinderFX schrieb:
Ja, dumm nur, dass primär erst mal für die Konsole entwickelt wird und kein Entwickler auf diesem Planeten 2 Versionen von seinem Spiel bringen wird,

"Primär" wird heutzutage für mehrere Plattformen entwickelt und gemeinsame Nenner gesucht. Alles was nicht auf allen Plattformen vorhanden ist, wird dann genutzt oder eben nicht. Für Windows 10 und die Xbox lässt sich eine identische Codebasis nutzen und beides ist ein Windows 10 mit DX12 Ultimate, die Sonderwurst die eine PS5 bei manchen Spielen bekommt, interessiert einen PC Spieler sowieso nicht.

GrinderFX schrieb:
Du kriegst die portierte Konsolenversion am PC, die eben alles von der Platte läd und nicht aus dem RAM.

Kein Spiel greift direkt auf den Datenträger zu und eine spezielle Schnittstelle wie sie bei den Konsolen vorhanden sein wird, gibt es bei den PCs sowieso nicht. Somit geht auch jeder Zugriff auf die Spieldaten über das System, was selbst ohne jegliche Optimierung diese im RAM zwischenspeichert.

GrinderFX schrieb:
Die SSD der PS5 ist nur 2.5 mal langsamer von der Geschwindigkeit

Der Unterschied beim Durchsatz beträgt 5,5GB/s bei der PS5, zu 25.6 GB/s bei DDR4-3200, von den Latenzunterschieden ganz zu schweigen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Grundgütiger, Cohen und LukS
Der Punkt ist doch, dass man vor 5-10 Jahren mit einer Grafikkarte für 500€ deutlich mehr Leistungsüberschuss für aktuelle Spiele bei gängigen Auflösungen hatte, als heute.

Ich würde sogar sagen, dass eine 2080ti Leistungsmäßig dem entspricht was man damals für 500€ bekommen hat.

Zudem ist es so, dass die High End Karten seit JAHREN in gleichem maße an 4K 60 FPS scheitern.

Ich muss also heute mehr Geld für die stärkste GPU ausgeben, scheitere damit aber genauso wie vor einigen Jahren an 4K60.

Man bekommt also heute nicht „mehr“, sondern man bekommt gerade mal so viel wie mindestens erforderlich ist, um seinen Standard zu halten (bei gleichzeitig steigenden Anforderungen der Spiele)

Nur um das mal klar zu stellen. Dass der Fortschritt der GPUs mit dem Fortschritt bei Spielen mithalten kann ist ja wohl das allermindeste. Hierfür sollten die Preise auch gleich bleiben, da wir sonst nicht mehr von technischem Fortschritt bzw Effizienzsteigerungen sprechen können.

Zusätzlich wärs natürlich vorteilhaft, wenn wir irgendwann auch mal die Auflösungen und FPS weiter erhöhen können und nicht nur an 4K scheitern.

Daher sollte es zumindest für nen gewissen Aufpreis GPUs geben, die dann eben 8K oder so schaffen.

Aber wie gesagt, wir haben jetzt GPUs, die immer teurer werden, aber dabei gerade so mit den Anforderungen mithalten können, was jedoch schon grundvoraussetzung für ein gleichteures, aber neues Produkt wäre.

Wir haben hier also schon eine Preiserhöhung.


Generell ist der Punkt eben auch, dass ich mir Heute ne Karte mit 100% Leistung für meinetwegen 500€ kaufe und dann in zwei Jahren ein Produkt mit 150 oder 200% Leistung zum selben Preis kaufe.

Es ergibt überhaupt keinen Sinn, für die Mehrleisting mehr Geld zu verlangen. Schließlich gehts ja darum, dass ich meine alte Karte abstoße und für den gleichen Betrag, den ich ja nun NOCHMAL ausgeben miss was besseres bekomme.

Wenn ich jetzt für 500€ 100% bekomme und in zwei Jahren für 1000€ 200%, welchen Grund hab ich denn dann, aufzurüsten???

Ich versteh nicht, wie man ticken muss, um mehr Leistung mit höheren Preisen zu rechtfertigen. Das ist ein valides Argument wenn wir uns auf dem gleichen technischen Stand befinden. Du willst mehr Leistung, dann kaif dir das bessere modell. Aber wenns um Generationsbezogenrn Fortschritt geht, dann kann eine Leistingssteigerung keine Preiserhöhung zur folge haben.

Denn wie gesagt, wenn mehr Leistung bei der nächsten Gen mehr Geld kostet, dann müssen wir, so leid es mir tut akzeptieren, dass es keinen technischen Fortschritt mehr gibt, sondern nur noch mehr Leistung durch höhere kosten. Das ist halt kein Fortschritt, wenn die Kosteneffizienz nicht steigt...
 
  • Gefällt mir
Reaktionen: JanTenner und AnkH
Ich bin sehr gespannt was bei der neuen Generation tatsächlich hinten raus kommt und was auch AMD zu bieten haben wird. Die Preissteigerung sind natürlich massiv ärgerlich und da muss man sich tatsächlich als nicht Hardcore-Gamer fragen, ob man soviel Geld ausgeben will. Prinzipiell bin ich immer sehr gut und sehr lange mit meiner Hardware ausgekommen und hab das auch soweit getrieben bis "Ultra-low" nicht mehr akzeptabel lief. Durch SimRacing und VR-Nutzung sehe ich mich aber mittlerweile auch gezwungen hoch ins Regel oder tief in die Tasche zu greifen.

Nach dem viel über Performance/$, neue Features und co gesprochen wird, ist auch nicht zu vernachlässigen, dass eventuell auch die Rahmenbedingungen heute anders sind als vor 10 oder selbst 5 Jahren sind. Die Lohnkosten in der gesamten Kette (Forscher, Entwickler, Produzenten) werden mit Sicherheit ordentlich gestiegen sein und auch in China stellt sich sicher keiner mehr für 2,50€/ Std. ans Band. Dann wenn es wie in Deutschland läuft ein Haufen Lizenzkosten, Zertifizierungen und Audits die Geld kosten usw. Ich denke das trägt ordentlich dazu bei. Selbst ich kleines Licht, der in einem recht kleinen mittelständischen Unternehmen tätig ist, hatte das große Glück meinen Lohn in den letzten 5 Jahren deutlich zu steigern und auch wenn ich nur interner Dienstleister bin für meinen Chef, wird auch meine Lohnsteigerung zusammen mit denen der Kollegen sicher irgendwo auch bei unseren Kunden aufschlagen. ;-)

Dazu kommt eventuell noch, dass die Leistungsausbeute schlechter wirkt, da zum Einen es wahrscheinlich schwerer wird die Hardware immer weiter zu optimieren in der gewohnten Geschwindigkeit (siehe die SingleCore-Performance bei CPUs) und zum anderen wird die Software immer weniger optimiert, dafür aber mit mehr und mehr Features überladen. (was ja wieder künstlich alles verlangsamt)
 
Ich bin gespannt wie die Spielemacher auf soviel RAM reagieren. Sollten die Texturen wirklich größer werden, macht es keinen sinn die Spiele direkt mit den größeren Texturen auszuliefern. Wird in Zukunft dann sicherlich
alles Optional laufen (so wie bei Gears 5).

PS5Pro und XBX Seriex S werden dann sicherlich in 2-3 Jahren mit 32GB RAM daher kommen
 
xexex schrieb:
Kein Programm greift physikalisch auf den Datenträger zu und eine direkte Schnittstelle wie sie bei den Konsolen vorhanden sein wird, gibt es bei den PCs sowieso nicht. Somit geht auch jeder Zugriff auf die Spieldaten über das System, was selbst ohne jegliche Optimierung diese im RAM zwischenspeichert.

Und das System kopiert die Teile dann von der Platte und wir sind wieder bei meiner anfänglichen Aussage, dass es erst mal dort hin muss und zwar zu miesen Ladenzeiten am PC ohne SSD mit PCIE.
Oder Beamt sich das in den RAM? Von einer normalen HDD ganz zu schweigen.
Bei 100Mbit pro Sek. und sagen wir mal benötigten 32GB Daten die geladen werden müssten, macht das alleine...
Sehr lange Ladezeit. Und hier kommt das Problem. Da die SSD der PS5 sehr sehr schnell ist, werden die Daten in Echtzeit geladen, sprich während des Spielens, das System bekommt die Meldung, lad mal jetzt Daten X, Y für mich, dieses läd dann von der Platte, in den RAM, aus dem dann die Anwendung läd. Nur dauert das eben zu lange > Framedrops, hänger oder Ladebildschirm.
Verstehe also deine Logik nicht, weil die Daten liegen auf der Platte und müssen nun mal irgendwie zur Benutzung bereit gestellt werden und wenn die Platte langsam ist, dauert es eben ZEIT!
 
GrinderFX schrieb:
Da die SSD der PS5 sehr sehr schnell ist, werden die Daten in Echtzeit geladen, sprich während des Spielens,

In "Echtzeit" geschieht da gar nichts, nur eben schneller wie bisher.

GrinderFX schrieb:
Oder Beamt sich das in den RAM?

Es wird einmal aufgerufen und bleibt im RAM. Um das immer wieder geholte Beispiel "Ratchet & Clank" zu nennen, während die PS5 die Daten "schnell" von der SSD immer wieder nachlädt. würden sie bei einem PC nach dem ersten Aufruf einfach im RAM bleiben.

In der Praxis aber wie schon mehrfach gesagt irrelevant, intensiv nutzen werden solche Features bestenfalls PS5 exklusive Titel und die sind für PC Spieler eh irrelevant.
 
Ich werde wohl nicht mehr schreiben das die GPU zu teuer ist und zuviel Strom verbrät, denn: Die 3090 wird meiner Meinung nach definitiv der Nachfolger der Titan, nichts anderes. Die 3090 hat so viel mehr VRam als die 3080, dass kann eigentlich gar nicht anders kommen.

Irgendwann nach Release der 3090 wird dann die 3080 Ti angekündigt, minimal langsamer als die Titan und weniger VRam. Also alles wie immer.
 
xexex schrieb:
In "Echtzeit" geschieht da gar nichts, nur eben schneller wie bisher.
Eben doch, ist bei Open World nun mal so. Du lädst doch nicht die gesamte Welt in den RAM, sondern nur die Regionen und Teile werden dann beim begehen nachgeladen, nennt man auch Echtzeit...
Nur, wenn deine Platte zu langsam ist um dies zu erfüllen, hast du Ruckler, Hänger.
Was ist also deine Argumentationsbasis bzw. wieso hälst du dich so vehement an deinen offensichtlich falschen Argumenten fest?
Weil etwas nicht sein kann, was nicht sein darf.
 
  • Gefällt mir
Reaktionen: Mcr-King
Zurück
Oben