Die leidige VRAM Thematik

@DavidsMind

Du musst die Tabelle schon richtig lesen: "Bietet optional Raytracing und Frame Generation - und neigt dann mit maximalen Details zu Abstürzen."

DavidsMind schrieb:
Selbst mit einer 3060ti mit 8gb lief das Spiel sauber bei mir.
Sicherlich nicht, siehe Video in #22. Ich kann das mit einer RTX 2080 reproduzieren. Mit maximalen Details ist bei der 3060Ti der VRAM zu klein und die Texturen werden matschig dargestellt.

Ich will dir deine neue Karte nicht madig, im Gegenteil, ich denke, es ist eine sehr gute Karte ist. Aber der VRAM ist eben alles andere als üppig, was bei der Nutzung von Raytracing/Pathtracing mit Frame Generation heute schon zu Problemen führen kann, siehe Tabelle. Und genau wegen dieses Features werden die Nvidia Karten empfohlen.
 
@AMD-Flo gut, wenn ich mich jetzt richtig erinnere, stehen 2 Regler nicht auf ultra sondern hoch. RT Schatten ist deaktiviert gewesen. Sonst lief RT auf mittleren Einstellungen. DLSS quality. Aber so ist Hogwarts bei mir anständig gelaufen, matschtexturen sind mir nicht aufgefallen.

Das zeigt dann im Endeffekt aber nur, was 1-2 Regler selbst von ultra auf hoch, wo der optische Unterschied mit der Lupe zu suchen ist, ausmachen können.

Und...Ich will ja Nvidia jetzt nicht verteidigen und auch meine Karte nicht schöner reden als sie ist. 12 GB sind sicher nicht das Optimum.
 
  • Gefällt mir
Reaktionen: AMD-Flo
DavidsMind schrieb:
Trotzdem ist es nicht seriös vorherzusagen, inwieweit mir 4GB mehr VRAM in 3-5 Jahren was bringen, oder eben nicht.
Ich hatte mit der RTX 4070TI weder bei Cyberpunk/Alan Wake/Hogwarts, oder jetzt Avatar Probleme.
Lustig finde ich dann, wenn Pathtracing ins Spiel gebracht wird alles auf den VRam geschoben wird. Dass da esteinmal die nötige Leistung dazu da sein muss sieht keiner.
Alan.jpg

Alleine dass Minecraft aufgeführt wird...maximal und die richtige Map...dann macht man auch 24GB VRam voll.
Meine RX 6800 hat für ihre Verhältnisse wirklich geliefert, aber in den angeblichen (12GB reichen nicht) Games haben ihr die 16GB Vram auch nicht geholfen.

Für das gibt es dann Regler und schon geht auch ein Cyberpunk mit ein wenig blingbling.
a.jpgb.jpg
c.jpgd.jpg
f.jpgj.jpg

Max ist eben nicht. Auf jeder Karte wird man anpassen müssen...je nach Feature Set mal mehr mal weniger.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Alioth
@AMD-Flo

Zu den deinen Screenshots von vorhin:
Du glaubst doch jetzt nicht ernsthaft, dass Hogwarts legency aufgrund von Speichermangel in 4k ultra auf der 4060ti (16GB) und der 4070 so wenig FPS abliefert? Soweit geht die VRAM Hirnwäsche nun schon :D?
 
@Alioth
Das war der falsche Screenshot, wollte eigentlich einen anderen posten, danke für den Hinweis, habe es entsprechend korrigiert. In diesem Fall fällt die RTX 4070 aufgrund von Speichermangel hinter die RTX 4060TI 16 GB zurück. Das ist natürlich eine Ausnahme und sowieso auf dem Level unspielbarer Frameraten.
 
  • Gefällt mir
Reaktionen: JarlBallin und Alioth
Ah okay danke.

Und was war am vorherigen Screenshot falsch, wo die 4070 in ultra 4k besser abgeschnitten hat? War das ein anderes Szenario?
 
  • Gefällt mir
Reaktionen: Alioth
Ich zum Beispiel habe vor meine GPU immer so im 3 Jahresrythmus zu tauschen. Kaufe meist die 70er Leistungsklasse einer Generation und überspringe dann eine.
12GB sind in WQHD sicherlich noch 2-3 Jahre brauchbar, sollte mal das ein oder andere Game dabei sein wo dem nicht so ist wird der Texturregler eine Stufe nach links geschoben ... thats it.
Find ich besser als eine High End Karte zu kaufen und diese dann länger zu behalten.
 
  • Gefällt mir
Reaktionen: DavidsMind
@dr.betruger gute Strategie. Meine 3060ti hat jetzt auch knapp 3 Jahre ihren Dienst getan.
 
  • Gefällt mir
Reaktionen: dr.betruger
Ist denke das ist eine gute Strategie. Nachteil ist halt, dass man nicht nur oft kaufen muss, sondern oft auch wieder verkaufen. Wenn einem das Spaß macht aber perfekt :D
 
  • Gefällt mir
Reaktionen: dr.betruger
Zurück
Oben