Notiz GPU-Gerüchte: GeForce RTX 3080 Ti im April mit 10.240 ALUs und 12 GB

Capthowdy schrieb:
denn AMD plant RDNA3 schon für Ende 2021/Anfang 2022, was also glaubst du wird nVidia machen?
Und? Selbst wenn AMD RDNA 25 plant, sagt das noch lange nichts über die Leistungsfähigkeit der Karten aus. Dass AMD und Nvidia jetzt über Jahre jährlich 50% und mehr zum gleichen Preis draufpacken halte ich für ziemlich utopisch. Auch die Strukturbreite wird nicht mal eben jedes Jahr halbiert.
Capthowdy schrieb:
Stand JETZT reicht eine 3080 völlig aus, auch für 4K.
Capthowdy schrieb:
Genutzt heißt nicht automatisch dass ich davon auch einen echten Mehrwert habe und abgesehen von ein paar wenigen Ausnahmen die schlecht optimiert sind,
Schau doch einfach im VRAM Thread vorbei oder bemühe Google. Auch jetzt gibt es Spiele, deren Performance mit mehr als 10GB VRAM zunimmt. Und selbst wenn es schlechte Optmimierung ist, interessiert das keinen. Die Gründe für die Performance ändern nichts am Ergebnis.

Nochmal: Wir reden hier nicht von Karten für 200€ sondern von der Speerspitze bzw. Haaresbreite dahinter.
 
Moep89 schrieb:
Und? Selbst wenn AMD RDNA 25 plant, sagt das noch lange nichts über die Leistungsfähigkeit der Karten aus. Dass AMD und Nvidia jetzt über Jahre jährlich 50% und mehr zum gleichen Preis draufpacken halte ich für ziemlich utopisch. Auch die Strukturbreite wird nicht mal eben jedes Jahr halbiert.
Die Karten werden schneller und sparsamer sein, um wie viel spielt doch keine Rolle? Schon wenn eine potentielle 4080 5% schneller als eine 3090 ist und weniger verbraucht hättest du besser eine 3080 genommen.

Moep89 schrieb:
Auch jetzt gibt es Spiele, deren Performance mit mehr als 10GB VRAM zunimmt.
Wer die Hand voll schlecht optimierter Spiele unbedingt mit max. Details spielen können will, der kann gerne den doppelten Preis zahlen und in 1-1,5 Jahren wieder zum Spottpreis verkaufen. Spätestens dann wird die 3090 in die Tasche gesteckt, ob nun von AMD und/oder nVidia spielt gar keine Rolle. Bis dahin werden es kaum mehr relevante Spiele als jetzt sein, die mehr als 10 GB VRAM brauchen werden. Würden wir hier über wenigstens 3 Jahre sprechen, wäre ich eher bei dir, aber so wird der Nutzen von so viel VRAM sehr überschaubar bleiben.

Moep89 schrieb:
Und selbst wenn es schlechte Optmimierung ist, interessiert das keinen. Die Gründe für die Performance ändern nichts am Ergebnis.
Du meinst das interessiert also keinen wenn die meisten Leute das Game nicht spielen können und es deswegen zurückgeben? Übersetzt interessiert es also den Entwickler nicht ob er Geld verdient oder nicht, na wenn du meinst.
 
Zuletzt bearbeitet:
Capthowdy schrieb:
Du meinst das interessiert also keinen wenn die meisten Leute das Game nicht spielen können und es deswegen zurückgeben?
Weil die Ultra Einstellungen in 4K mit Ultra Texturen 10GB VRAM und mehr brauchen geben "die meisten" Leute das Spiel zurück? Du kommst ja auf Ideen.
Es gibt haufenweise schlecht bis gar nicht optimierte Spiele, die viel Leistung fressen. Die werden deswegen aber nicht massenhaft zurückgegeben. Am Ende zählt, ob jemand ein Spiel mit gewünschten Einstellungen auf seiner Hardware spielen kann. Wenn das nicht klappt, ist egal ob es an schlechter Optimierung oder einfach brutal ressourcenfressenden Features liegt. Du verwechselst hardwarehungrige Games mit generell fehlerhaften, die auch in niedrigen Einstellungen nicht sauber laufen. Das ist was völlig anderes.
Capthowdy schrieb:
Die Karten werden schneller und sparsamer sein, um wie viel spielt doch keine Rolle?
Nicht? Du kaufst dir also jedes Jahr eine neue Graka, weil die nächste Generation 5% mehr Leistung bringt? Je kleiner der Sprung, desto geringer der Anreiz. Was denkst du warum so viele Leute noch Prozessoren von vor 5 Jahren in Verwendung hatten bzw. noch haben und eine Ewigkeit 4 Kerne für fast alles locker ausreichten? Viele haben da mehr als 3 Generationen übersprungen, weil es einfach keinen Sinn ergab jedes Mal die nächste mitzunehmen.
 
  • Gefällt mir
Reaktionen: Cyberbernd
Moep89 schrieb:
Weil die Ultra Einstellungen in 4K mit Ultra Texturen 10GB VRAM und mehr brauchen geben "die meisten" Leute das Spiel zurück? Du kommst ja auf Ideen.
Und wie viele von denen die eine 3090 nur wegen dem VRAM gekauft haben spielen nun diese paar Krücken tatsächlich?

Moep89 schrieb:
Es gibt haufenweise schlecht bis gar nicht optimierte Spiele, die viel Leistung fressen. Die werden deswegen aber nicht massenhaft zurückgegeben.
Und die laufen durch mehr VRAM dann plötzlich besser? Falls nicht frage ich mich wozu du das erwähnst?

Moep89 schrieb:
Am Ende zählt, ob jemand ein Spiel mit gewünschten Einstellungen auf seiner Hardware spielen kann. Wenn das nicht klappt, ist egal ob es an schlechter Optimierung oder einfach brutal ressourcenfressenden Features liegt.
Die Spiele die tatsächlich im relevanten Rahmen von mehr VRAM profitieren sind sehr überschaubar. Was denkst du wie viele Leute eine 3080 nicht kaufen oder extra auf eine 3090 wechseln und auch nur eines dieser paar Games anrühren werden?

Moep89 schrieb:
Du kaufst dir also jedes Jahr eine neue Graka, weil die nächste Generation 5% mehr Leistung bringt?
Ob ich nun jetzt eine 3090 für den doppelten Preis kaufe, massiven Wertverlust inbegriffen, oder in einem Jahr eine neue Karte für sagen wir 1000€ abzgl. des Verkaufpreises einer 3080 macht genau welchen Unterschied? Ich meine abgesehen davon das ich am Ende die bessere Karte habe.

Wohlgemerkt: es geht mir ausschließlich darum dass jemand eine 3090 kauft, weil ihm der VRAM der 3080 vielleicht ausgehen könnte. Der Zeitraum in dem das relevant wäre, ist überschaubar kurz und die Games in denen das der Fall sein könnte sind ebenso überschaubar. Wenn nun jemand wegen dem VRAM eine 6800 XT statt einer 3080 nimmt, kann ich das absolut nachvollziehen, bei der 6900XT müsste man schon schauen ob es sich lohnt.
 
Zuletzt bearbeitet:
Capthowdy schrieb:
[...]Genutzt heißt nicht automatisch dass ich davon auch einen echten Mehrwert habe und abgesehen von ein paar wenigen Ausnahmen die schlecht optimiert sind, sehe ich genau gar keine Spiele denen 10 GB nicht reichen würden, siehe auch Cyberpunk. Zu glauben dass Softwareentwickler innerhalb der nächsten 1,5 Jahre ihre Software hinsichtlich VRAM Verbrauch für eine Minderheit der Spieler optimieren werden ist... 🤦‍♂️
Das frage ich mich auch immer.

Sitzen die dann da und sagen sich:
"Wir machen das so, dass 16GB mindestens als VRAM nötig ist"
"Aber dann läuft das nur bei den 3090 und 6800 / XT und 6900 Besitzern?"
"EGAL!"

So denkt doch niemand!
 
Da denken aber einige etwas schwarz/weiss. Es geht ja nicht darum, dass ein Spiel mit weniger als 16GB oder 12GB VRAM gar nicht mehr laufen würde. Aber Leute wie ich wollen die Spiele aus früher bereits erklärten Gründen gerne in den höchsten Einstellungen spielen können. Das mag nicht jeder verstehen, ist aber so.

Und da ist es mal ein Fakt, dass es bereits Spiele gibt, die dafür mehr als 8GB VRAM brauchen und 12GB VRAM ebenfalls nicht allzu lange halten werden.

Wer da dann einfach sagt "kauf doch einfach eine RTX 3090", der redet am Punkt vorbei. Denn ein Produkt muss ein sinnvolles Preis- / Leistungsverhältnis haben, zum Fenster raus schmeissen kann ich mein Geld leider auch nicht. Und nun warte ich auf den nächsten, der mich "geizig" nennt weil ich keine 2000 Euro für eine GPU ausgeben möchte :)
 
Gnasher schrieb:
So denkt doch niemand!
Richtig. Wieso fragt man sich sowas also?
Spiele kommen nicht mit fixer Auflösung und fixen Settings. Du kannst also alles auf "Low" stellen und in 640x480 zocken oder 8K und Ultra/Badass/wasauchimmer einstellen. Und das maximale Auflösung mit maximalen Details dann irgendwann höchstens auf den absoluten Topkarten läuft ist doch nichts neues.
Capthowdy schrieb:
Und wie viele von denen die eine 3090 nur wegen dem VRAM gekauft haben spielen nun diese paar Krücken tatsächlich?

Hä? Es geht ja eben NICHT um die 3090 sondern eine 3080Ti. Genau DIE Karte, die Leute mit hohem VRAM Bedarf erwartet haben, weil sie eben NICHT 1000€ mehr für mehr als 10GB VRAM zahlen wollen. Leute, die sich wegen des VRAMs eine 3090 gekauft haben sind also völlig egal. Interessanter sind die Leute, die sich keine 3080 und keine 3090 gekauft haben, weil die eine zu wenig VRAM hat und die andere zu teuer ist.

Capthowdy schrieb:
Wohlgemerkt: es geht mir ausschließlich darum dass jemand eine 3090 kauft, weil ihm der VRAM der 3080 vielleicht ausgehen könnte.
Und deshalb geht das völlig am Thema vorbei. Hier geht's um die 3080Ti, siehe oben.

Von daher verstehe nicht worüber man da diskutieren muss. Gibt es Leute, die mehr VRAM wollen/brauchen? Ja! Gibt es Leute, denen der enorme Aufpreis zur 3090 dafür zu hoch ist? Ja! Haben die deshalb auf eine 3080Ti mit 16 bzw. 20GB VRAM gehofft? Ja! Sind die (von der ganzen Verfügbarkeits- und Preisgeschichte mal ganz abgesehen) nun von den 12GB VRAM enttäuscht? Ja! Thema erledigt.
 
  • Gefällt mir
Reaktionen: Cyberbernd und sirupflex
@sirupflex
Dann kauf doch einfach ne 6800 6800XT 6900 3060? Ich weiß Du willst eine 3080 mit 20GB für 999€, ich würde auch eine nehmen. Die 3080Ti kommt aber mit 12GB zu vermutlich völlig verrückten Marktpreisen. Somit waren die Leute die eine 3090 für 1499-1699€ bekommen haben und unbedingt mehr als 12GB VRAM brauchen, gut bedient, rückblickend, die Käufer der AMD Karten wohl auch aber da kenne ich mich bei den Preis nicht aus. Ja, da haben wir nun auch nichts von, ich weiß. Nur ist es halt dann auch sehr müßig darüber zu diskutieren.

Nicht ganz so müßig finde ich die Spieleentwicklung, um den Bogen zu schließen und ich denke durchaus, dass die verschiedenen Marktanteile eben sehr wohl Einfluss darauf nehmen werden, ebenso wie die neuen Konsolen und deren schwächere Versionen.

Natürlich war mein Beispiel plakativ, aber das war ja augenscheinlich, es wird immer Spiele geben die so schlecht erstellt sind, dass der Speicher überläuft, es ruckelt, oder Leute werden Wege finden den VRAM volllaufen zu lassen.
Die Frage ist halt: "muss das geschehen"? Wird es Spiele geben die in 4k mit 4k Texturen nur 10GB nutzen? Kann man durch schnellen Speicher und dynamisches Laden Nachladeruckler verhindern? Gibt es überhaupt immer Nachladeruckler wenn der VRAM alle ist? Das ist m.E. die interessantere Diskussion!

@Moep89
Ich weiß nicht wieso sich einige sowas fragen? Wer das Beste will kauft ne 3090 (6900?), wer das nicht kann, bekommt halt nicht das Beste. Hart, aber die Wahrheit! Ich habe keine 3090, ich hätte gerne eine, mir aber zu teuer! Meine Entscheidung bei WQHD zur 3080 war aber auch leichter als wenn ich 4k hätte.

Das hier die meisten entäuscht sind ist klar nur das erledigt ja für die Leute ohne Ihre Grafikkarte auch nicht das Thema. Jetzt dürfte es eh zu spät sein bis es wieder was gibt oder bis es heißt 4080Ti mit 16,5GB... wer bietet mehr?
 
  • Gefällt mir
Reaktionen: Cyberbernd
0ssi schrieb:
FHD, WQHD oder UHD ?

Wie bereits mehrfach geschrieben: VR, HP Reverb G2 (9.3Mio Pixel total; +9% zu 4k), Half-Life: Alyx

0ssi schrieb:
1. Stand aktuelle Spiele (siehe oben)
2. Anforderungskurve der Spiele über die Zeit gemäss Erfahrung aus Vergangenheit
Zudem wird die Auflösung von VR Brillen zukünftig weiter steigen.
 
Aber Nvidia vermarkte die 3080 und wohl die 3080Ti für 4k wenn Du jetzt mehr als 4k willst, was du ja mit +9% zu 4k darlegst, wäre die logische Schlussfolgerung, dass Nvidia dich als 3090 Käufer sieht.

Das ist natürlich "frech" von Nvidia, aber sorry, VR ist schon ne harte Nische.
 
sirupflex schrieb:
Wie bereits mehrfach geschrieben: VR, HP Reverb G2 (9.3Mio Pixel total; +9% zu 4k), Half-Life: Alyx
Haben VR Spiele wirklich so hochauflösende Texturen, dass VRam dort eine Rolle spielt ?

sirupflex schrieb:
2. Anforderungskurve der Spiele über die Zeit gemäss Erfahrung aus Vergangenheit
Dann reichen 8GB locker bis 2025 denn in den letzten 5 Jahren tat sich nix.
 
Wenn man 5 Jahre nur das selbe Game spielt mag das stimmen ;)

Ich nutze z.B mehrer Displays am PC. Das allein frisst schon 3 GB VRAm wenn alles so offen ist wie ich es brauche. Da sind mir dann 10 GB deutlich zu wenig wenn ich noch in 3K Auflösung spielen will. Außerdem ist es doch eben so das Texturen keine Leistung kosten und die Optik erheblich beeinflussen.
Sprich Ältere GPUs mit Viel VRAM können die Texturen dennoch hoch schrauben und zaubern dann ein sexy Bild.
 
Gnasher schrieb:
@sirupflex
Dann kauf doch einfach ne 6800 6800XT 6900 3060?
Eine 3060 bringt mir mit einer HP Reverb G2 nichts im Vergleich zu meiner aktuellen 2070S, da es an Rohleistung fehlt. Und AMD scheidet für mich momentan aus, wie bereits erwähnt, da mir RT wichtig ist. Bin halt eben ein Grafik- und Realismus-Freak.

Ja, hätte ich die Entwicklung vorhergesehen, hätte ich mir damals vielleicht doch eine RTX 3090 für 1500 Euro kaufen sollen. Wäre zwar auch masslos überteuert gewesen, dafür hätte man für dieses Geld wenigstens immerhin das Maximum bekommen. In den kommenden Monaten wird man für diese 1500 Euro wohl nur noch einen unbefriedigenden Teil davon erhalten, z.B. eine 3080 10GB, was für mich persönlich ein No-Go ist.

Ja, VR ist "hartes Brot" für eine GPU, das ist so. Deshalb stimmen meine Anforderungen und Aussagen leider auch, auch wenn sie evtl. für etliche andere nicht zutreffen. Mit VR muss man auch bereit sein, Geld in die Hand zu nehmen. Und damit schliesst sich der Kreis wieder. Ja, ich bin bereit, Geld in die Hand zu nehmen aber das Preis-/Leistungsverhältnis muss trotzdem stimmen. Aktuell bezahle ich für eine 3080 10GB ähnlich viel wie für eine 3090 24GB im ursprünglichen Listenpreis. Da hört es dann bei mir halt auch mal auf. Die 3080 10GB war zu Beginn in den Shops für ca. 800 Euro ausgeschrieben. Hätte ich fast gekauft (wenn sie denn verfügbar gewesen wäre). Für den Preis hätte ich auch mit 10GB knapp leben können. Oder eben gerne für 1000/1100 Euro eine 3080 TI 16GB (20GB brauch ich auch nicht). Wäre anhand der ursprünglichen Listenpreise auch der logische Preispunkt dafür gewesen. Leider hat sich die Welt anders entwickelt und darüber darf man sich absolut ärgern.
 
  • Gefällt mir
Reaktionen: Hatsune_Miku
Gnasher schrieb:
Wer das Beste will kauft ne 3090 (6900?), wer das nicht kann, bekommt halt nicht das Beste.
Es geht auch nicht um das beste. Die absoluten Topmodelle, besonders bei Nvidia sind eher Prestigeobjekte. Ist bei Intel aber auch so. Irgendwann kosten 5% Mehrleistung dann 100% Aufpreis. Genau darum ging es ja mit der 3080Ti. Nicht das Luxusmodell zum Rumprollen, aber für deutlich weniger Geld nur geringe Einbußen. Der Einschnitt durch die Halbierung des VRAMS macht das nunmal zunichte. Nun die Karte nicht ernsthaft besser als eine 3080, wird dafür aber wohl viel zu deutlich mehr kosten. Mit 20GB VRAM wäre sie ganu das geworden, was in die Lücke gehört hätte. Ich bin mir auch sicher, dass Nvidia das ursprünglich so geplant hatte, aber nun die Knappheit und Preise des VRAM zum Umdenken führten.
 
0ssi schrieb:
Haben VR Spiele wirklich so hochauflösende Texturen, dass VRam dort eine Rolle spielt ?

Dann reichen 8GB locker bis 2025 denn in den letzten 5 Jahren tat sich nix.
Sag mal, hat du im Thread auch mitgelesen oder postest du nur? Das wurde doch nun bereits mehrmals erklärt und aufgezeigt. Half-Life: Alyx beklagt sich explizit über VRAM Mangel bei meiner 2070S 8GB. Andere User haben auch weitere Beispiele genannt.

Deine zweite Aussage geht dann aber schon etwas sehr an der Realität vorbei. Das mag evtl. für deine Anforderungen und deine Spiele so sein, nicht aber für meine Anforderungen.
 
Sunjy Kamikaze schrieb:
Sprich Ältere GPUs mit Viel VRAM können die Texturen dennoch hoch schrauben und zaubern dann ein sexy Bild.
Wir reden von 4K Ultra wo die VRam Menge eine Rolle spielen könnte und was ist dann an 30FPS sexy ?
Weil mehr wird eine ältere GPU kaum schaffen. Eine GTX1080Ti 11GB stinkt gegen eine RTX3070 8GB ab.
Warum steckt eigentlich keine RX590 8GB in deinem Rechner ? Eine 5600XT mit 6GB ist doch unsexy. :p

sirupflex schrieb:
Half-Life: Alyx beklagt sich explizit über VRAM Mangel bei meiner 2070S 8GB.
Während des Spiels in Form von einer Einblendung bzw. sogar Rucklern
oder vor dem Spiel bei den Grafikeinstellungen in Form einen "Balkens"
der auf theoretischen Werten basiert welche immer etwas höher sind !?
 
Zuletzt bearbeitet:
Es sollte doch mittlerweile KLar sein das die Auflösung nur einen kleinen Teil des Vram ausmacht. Einfach mal die Texte des Allgegenwärtigen @HisN zu gemüte führen ;)
 
  • Gefällt mir
Reaktionen: HisN
@sirupflex die Preise jetzt sind natürlich völlig Banane, da kann ich auch nur jedem abraten. Was man im Oktober gesehen hatte ging t.w. noch, wenn es auch deutlich über der UVP war. Ich hab auch "zuviel" bezahlt aber meine alte Karte ist ebenso verrückt im Preis gestiegen, dass es mir im Nachhinein egal ist und wie gesagt VR ist ja auch wirklich weit weg von WQHD bei mir.

Komische Zeiten. Mal gespannt, wann hier es hier entspannt wird, Juni? Vielleicht sehen wir 2022 nichtmal 4080 sondern 3080 Super? Alles ist möglich derzeit.

@Moep89 Ja, es spricht viel dafür, dass wenig so gelaufen ist wie es geplant war. Wobei ich glaube das sich sowohl AMD als auch Nvidia dumm und dämlich verdienen gerade. Wobei für Nvidia der "Schachzug" mit 12GB wie ja mehrfach gesagt, zum Leidwesen der meisten, wohl gut kalkuliert ist.

OT: Manchmal frage ich mich ob ich nicht doch einfach ne Konsole hätte kaufen sollen (Gab es die eigentlich zur UVP?) :confused_alt:
 
  • Gefällt mir
Reaktionen: sirupflex
Sunjy Kamikaze schrieb:
Es sollte doch mittlerweile KLar sein das die Auflösung nur einen kleinen Teil des Vram ausmacht.
Das Wort "Ultra" steht für sämtliche Grafikeinstellungen also auch einen großen Teil ;)
 
Zurück
Oben