Also gut, hier ein paar Belege, dass 6GB bei einigen Spielen auch heute schon zu wenig sein können:
Wolfenstein 2 Addon 1080p 2060 weit abgeschlagen hinter 2060S und 2070.
https://www.pcgameshardware.de/Wolf...cials/Grafikkarten-Benchmarks-Test-1295585/2/
Etliche Spiele gibt es dann im Test der 2080, wo man auch schön den Abfall der 2060 zur 2070 sehen kann.
Wenn die Abstände nicht nur 20 sondern auf 50% oder mehr ansteigen, ist das eindeutig einzig und allein der viel zu knappe Speicher.
https://www.pcgameshardware.de/Gefo...Benchmark-Review-Release-Kaufen-1295238/2/#a1
Schaut euch dort z.B. ARk, Hitman und Dirt Rally an, welche in FullHD mit 6GB auskommen, da sind die Abstände nahezu entsprechend der Leistungsunterschiede der GPU gegeben.
Jetzt aber z.B. Wolfenstein, dort ist die 2070 schon in FullHD locker doppelt so schnell, und das bleibt natürlich auch bis 4K so schlimm.
In The Division knickt die Karte in 4K bis zu 36% Abstand ein.
Battlefield beträgt der Abstand auch in 4K schon 44 im Schnitt und 50% bei min Frames.
Tomb Raider quittiert auch in 4K den doppelten Leistungsunterschied.
Odyssey 49 respektive sogar 53%punkte Differenz in 4K.
Es gibt sogar ein Video, wo halt das Extrembeispiel von mit in 4K wars glaube ich genauer gezeigt wird, wie da die 2060 herumstottert und die Texturen nicht geladen bekommt.
Das Video sollte übrigens nur als Beweis dienen, und als Vorschau, wie sich die Karte in 2-3 Jahren wohl in nahezu jedem Grafikspiel präsentieren wird.
Von dem Kauf der Karte wird übrigens als Fazit abgeraten.
Was zudem allgemein in reinen Benchmarkbalken niemals klar ersichtlich wird:
die Spiele schummeln, um die Minimumframes noch konstant hoch zu halten.
Wenn das Spiel also zu wenig Speicher erkennt, dann werden vollautomatisch niedrigere Texturdetails ausgewählt. Oder aber die Texturen werden erst sehr viel später nachgeladen.
Das wurde auch schon in Videos belegt.
So gibt es sogar Fälle, wo auf dem Blatt so gut wie keine Abweichung zu erkennen ist, aber im Spiel selbst bemerkt man im direkten Vergleich doch den einen oder anderen Unterschied, bis dann zu vollständig desaströser Vorstellung, wie im Fall von Wolfenstein.
Ich möchte nur darauf hinweisen, dass der oben zitierte Bericht also nicht wirklich die ganze Wahrheit wiedergibt.
6GB werden sehr schnell altern.
Selbst in FullHD gibt es erste Anzeichen bei Spielen, in 4K sollte man die Karte schon gar nicht mehr einsetzen wollen, ok die Leistung reicht da auch nicht für.
Aber man muss es so sehen: die Ansprüche der anspruchvollsten Titel sind die normalen Spiele von morgen, also vielleicht schon im kommenden Jahr, sicher aber in 2 oder gar 3.
Dann wird man sich ärgern, keine 8GB Karte gekauft zu haben.
Als Übergangslösung sicher kein Problem, auch nicht, wenn man nur in 1080p zocken möchte und dann ggf. die Texturdetails bei Problemen runterstellen mag.
ABer ich weiß aus Erfahrung, dass man alles runterdrhen kann, aber auf keinen Fall die Texturen.
Denn das sieht man als allererstes, wenn die Texturen weichgezeichnet und matschig rüberkommen.
So sieht ein Spiel schnell ein paar JAhre älter aus, als es eigentlich ist.
Dafür gibt man nicht viel Geld für eine neue Karte aus.
Andersherum sidn ja gerade die Texturmods für ältere Spiele so beliebt, eben weil es die Spiele einfach frischer aussehen läßt, obwohl sich nichts geändert hat.
So, ich will euch nicht weiter belästigen.
Nehmt meinen gut gemeinten Rat mit oder nicht.
6GB sind einfach zu wenig, wenn eine Karte genügend Rechenpower für 1440p mitbringt.