News GeForce RTX 3000: Deutlich mehr Grafikspeicher kündigt sich an

Tobi86 schrieb:
Ich finde ja, dass nVidia (und auch AMD) zu 8GB VRAM beim Spitzenmodell zurückkehren sollten. Reicht doch völlig aus.

Das wäre auch nicht so schön. Ein Beispiel: Ich spiele gerne Ark, mit Texturen auf maximal in 3440x1440 braucht (ja braucht, nicht belegt) das Spiel nach einer Stunde über 8GB VRam, mein peak war bei 10,1GB. Gemessen mit einer 1080 Ti 11GB und einer RTX 2080 8GB. Die RTX erzeugte teilweise sehr schlechte Frametimes und der RAM war am Anschlag.

Ist halt ein Extrembeispiel eines unoptimierten Spiels. Da ich aber sehr oft Ark spiele bringen mir 8 GB da nicht wirklich viel.
 
  • Gefällt mir
Reaktionen: Onkel Föhn, evilhunter und CHILEChile
Wadenbeisser schrieb:
Wenn es doch so eintritt dann aber mit mindestens ebenso lautstarken Protest gegen die Karten und anschließender Kaufverweigerung.


Wo übe ich lautstarken Protest gegen die Karten? Ich "diskutiere" nur mit dir über mögliche Preise. Aber die Diskussion ist relativ einseitig, wenn die Argumente "ist doch absehbar was kommt" sind, ohne jegliche Grundlage. Von daher ist das Thema für mich eigentlich gegessen.

Wegen mir kann eine RTX3080ti oder wie auch immer 2000€ und mehr kosten, wenn sie wirklich eine extreme Leistung liefern sollte. Aber um dein Lieblingsargument zu bringen... ist doch absehbar, dass der leistungssprung nicht so groß ausfallen kann ^^

Wenn die Leistung stimmt, warum nicht. Da müsste Navi2 aber schon eine harte Luftnummer werden, um das zu rechtfertigen und das denke ich eher nicht.
 
Wird auch Zeit. Ich hätte liebend gern meine 5700 XT direkt mit 16GB VRAM gekauft. Aber gabs/gibts ja nicht.

Zockmock schrieb:
Interessantes Vorgehen mit den unterschiedlichen Speichergrößen.

Nicht das erste mal. Bereits bei der GeForce 1 gab es 16MB und 32MB Versionen.
 
  • Gefällt mir
Reaktionen: Zockmock und Onkel Föhn
HisN schrieb:
Ist ganz einfach. Die Texturen sind meistens (solange das VRAM reicht) FPS-Neutral.
Man bekommt (genug VRAM vorausgesetzt) also Bildqualität Performance-Neutral.

Ja, Vram ist im Gegensatz zu den übrigen performance-relevanten Einstellungen recht binär. Genug/nicht genug für die gewünschten Texturdetails. Irgendwann hat man aber nicht mehr genug, dann muss man eine Stufe runter, egal wie flüssig vorher alles war.

Aber die Frage ist ja weniger wie granular ich in ein Hardware-Limit (Leistungs-Limit oder Vram-Limit) fahre, sondern wie viel es wert ist, diese Gefahr auszuschließen. Oder wie weh es tut, wirklich eine Stufe runterschalten zu müssen.

Edit: Für dich als Bilderbuch-Enthusiasten ist es wahrscheinlich schlicht nicht akzeptabel jemals in ein von vorneherein vermeidbares Limit zu geraten, egal wie sehr du die Karten quälst. Dafür zahlst du halt deine 24GB Vram, okay. Normalsterbliche müssen sich da aber nicht unbedingt ein Beispiel an dir nehmen. ^^
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: PS828 und HisN
Linmoum schrieb:
Schwächere Performance mit dafür mehr Speicher gab's immer wieder von AMD, hat NV nie gejuckt. Warum also jetzt?

Weil im Gegensatz zu Intel, bei Nvidia fähige Köpfe sitzen und sich die Marktanteile nicht einfach so wegnehmen lassen. Auf AMDs Navi Karten, kam prompt eine Antwort, bei Freesync/G-Sync hat man AMD den Vorteil günstigerer Monitore weggenommen und beim VRAM lässt man sich nun auch nicht mehr kalt erwischen.

Der Aufwand (optional) Karten mit mehr VRAM herauszubringen, dürfte sich in Grenzen halten, mögliche Marktanteilverluste wiegen da schwerer.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: PS828, Onkel Föhn, Mumusud und 3 andere
xexex schrieb:
Weil im Gegensatz zu Intel, bei Nvidia fähige Köpfe sitzen und sich die Marktanteile nicht einfach so wegnehmen lassen.
Nur fehlt weiterhin die Logik basierend auf der Vergangenheit, wo AMD bereits über mehr Speicher und (leicht) niedrigere Performance kam. Es gibt keinen Grund, warum es NV von heute auf morgen plötzlich interessieren sollte. Auch nicht Marktanteile, denn in all den Jahren, wo das bereits der Fall war, wussten sie auch nicht, wie diese sich mit AMDs Produkten mit mehr Speicher im nachhinein entwickeln würde.
 
Linmoum schrieb:
Nur fehlt weiterhin die Logik basierend auf der Vergangenheit, wo AMD bereits über mehr Speicher und (leicht) niedrigere Performance kam.

In der "Vergangenheit" hat Nvidia auch lieber G-Sync durchsetzen wollen, die aktuelle Strategie ist hingegen ausreichend bekannt. Die 2060S bekam bereits 8GB VRAM, auf G-Sync folgte G-Sync Compatible, AMD muss diesmal liefern sowohl bei 3D als auch der RT Leistung und kann sich nicht mehr hinter VRAM oder ähnlichen verstecken.

Linmoum schrieb:
Es gibt keinen Grund, warum es NV von heute auf morgen plötzlich interessieren sollte.

Es ist die Pflicht eines Aktienunternehmens um Marktanteile zu kämpfen und bestehende Marktanteile zu verteidigen. AMD ist mit Ryzen erfolgreich und könnte so auch im GPU Markt wieder erstarken, da gilt es jeden Versuch am besten direkt im Kern zu ersticken.

Nvidia dürfte es immer noch stinken, dass AMD mit der aktuellen Navi Generation und "Minichips" ohne jegliche RT Unterstützung, gegen die RTX Karten angetreten ist und hier Marktanteile abgreifen konnte.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Onkel Föhn und evilhunter
Linmoum schrieb:
Nur fehlt weiterhin die Logik basierend auf der Vergangenheit, wo AMD bereits über mehr Speicher und (leicht) niedrigere Performance kam. Es gibt keinen Grund, warum es NV von heute auf morgen plötzlich interessieren sollte. Auch nicht Marktanteile, denn in all den Jahren, wo das bereits der Fall war, wussten sie auch nicht, wie diese sich mit AMDs Produkten mit mehr Speicher im nachhinein entwickeln würde.

Vielleicht beobachten sie das Sentiment in der Community. Das Thema "Speicherkrüppel" ist ja erst in den letzten 1-2 Jahren so richtig heiß geworden. Und jetzt gibt man den Leuten halt, was sie glauben so furchtbar dringend zu benötigen.
 
  • Gefällt mir
Reaktionen: Onkel Föhn, HisN und efgw3e62346wert
Man muss ja auch davon ausgehen, dass Nvidia ggf. schon schlauer ist als wir. Zumindest in Bezug auf Big Navi. Vielleicht liefert AMD wirklich im Herbst/Winter ein konkurrenzfähiges Produkt im (Gaming-)Highend-Bereich ab und Nvidia versucht in allen Belangen mögliche Defizite der eigenen neuen GPUs auszuschließen.

Das Ding aktuell ist m.E auch, dass AMD es hinbekommen hat sein Firmenimage massiv aufzupolieren und jetzt besser da steht als vor Bulldozer. Selbst in mittelständischen Firmen bekommt man jetzt teilweise einen Laptop mit AMD-Hardware hingestellt und auch der ein oder andere Sys-Admin ist nicht mehr vom Gedanken "Serverhardware von AMD" abgeschreckt (kenne einige, die das bis vor 1-2 Jahren gewesen wären).

AMD ist ernst zu nehmen (abgesehen von den Referenzdesigns ihrer GPUs bis dato) und Nvidia wäre, wie in diesem Thread schon mehrfach gesagt, schön blöd, wenn sie die selben Fehler wie Intel begehen.
 
  • Gefällt mir
Reaktionen: pipip, PS828, Onkel Föhn und 2 andere
  • Gefällt mir
Reaktionen: Onkel Föhn
milliardo schrieb:
"Speicherkrüppel"

Ja, schon irgendwie witzig ;) . Wenn die 8GB meiner 2080S jetzt bald in die Kategorie Speicherkrüppel fallen, war meine Entscheidung, diese GPU für FHD (wofür sie ja eigentlich OP ist) zu nutzen, doch gar nicht so verkehrt.
 
  • Gefällt mir
Reaktionen: captaincapri
captaincapri schrieb:
und Nvidia versucht in allen Belangen mögliche Defizite der eigenen neuen GPUs auszuschließen
Das tun sie in meinen Augen aber nur halbgar, wenn der zusätzliche VRam nur in teureren Spezialmodellen erhältlich ist. So muss man sich darauf einstellen, dass man in der Standard-Variante von 3070/3080 weiterhin einen Nachteil hat zum direkten Wettbewerbsprodukt.

Aber gut möglich, dass AMD den gleichen Weg geht und wir nur noch die Wahl zwischen knapp bemessenen Basis-Modellen und teuren VRAM+ Modellen haben - würde mich nach der 5500 XT/5600 XT auch nicht wundern
 
MaverickM schrieb:
Nicht das erste mal. Bereits bei der GeForce 1 gab es 16MB und 32MB Versionen.
Das war früher eher der Normalzustand und wurde mit dem heute noch üblichen "brauch man nicht" und "ist den Aufpreis nicht wert" Gebrabbel tot geredet. Wie hoch war der nochmal? vielleicht 20-30%?
Die Modelle mit dem kleineren Speicherausbau reichten dann idR. für den 0815 Zocker und für Enthusiasten mit Texturen Mods usw. freuten sich über die Modelle mit dem größeren Speicherausbau.
Heute bezahlt man für das gleiche Ergebnis grob den doppelten Preis weil das entsprechende Modell einen anderen Namen hat.
 
Also ich finde halt bei Texturen ist es wie be fast allen einstellungen Ultra Texturen zu Hochen verringern den VRam verbrauch deutlich und sehen fast identisch aus.. Klar wenn ich mich ingame hinstelle und nach unterschieden suche finde ich welche.. Aber ich zock ja das Game.. und da fällt das ansich nicht auf.
 
@Sunjy Kamikaze

Ich genieße es, vielleicht sehe ich deshalb auch die Unterschiede. ;)
Stumpf und mit Scheuklappen durch die lvl rennen um es möglichst schnell hinter mich zu bringen lag mir noch nie.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
ragnaroek666 schrieb:
AMD wird die Preise schon drücken, keine Sorge. Ich setz eh auf Big Navi, egal was NVIDIA bringt. Bei AMD gibt es einfach mehr fürs Geld, siehe Freesync und Raytracing/DLSS, da wird AMD auch bald was im Angebot haben und das ohne Zusatzkosten.
Falsch. Falsch. Und Falsch.
 
  • Gefällt mir
Reaktionen: Laphonso
Wenn ich mir die Preise der 2080 Super auf Kleinanzeigen so anschaue... Nagelneue werden um die 400€ rausgehauen. Die Panikverkäufe gehen los... Hatte irgendwie den richtigen Riecher mich vor 3 Tagen davon zu trennen bevor das Schiff anfängt zu sinken 😁
 
Ich glaube eher man profitiert jetzt davon Panikverkäufe zu erwerben...
 
ragnaroek666 schrieb:
AMD wird die Preise schon drücken, keine Sorge. Ich setz eh auf Big Navi, egal was NVIDIA bringt. Bei AMD gibt es einfach mehr fürs Geld, siehe Freesync und Raytracing/DLSS, da wird AMD auch bald was im Angebot haben und das ohne Zusatzkosten.
Falls Big Navi wirklich an die 3080ti rankommen wird, wird AMD diese mit Sicherheit nicht für unter 1000€ verkaufen. Warum manche immer AMD als billig Hersteller assoziieren, klar für uns als Kunde ist das gut aber auch die wollen Geld verdienen.
 
Zurück
Oben