G3cko schrieb:
7970 3GB VRAM seit 2011 vs GTX670 mit 2GB schon lange verhungert.
Also wenn Du schon vergleichst, dann solltest Du fairerweise in beiden Fällen den Vollausbau oder die beschnittenen Varianten nehmen (ergo, HD 7950 (3 GB) vs. GTX 670 (2GB) oder GTX 680 (2 GB) vs. 7970 (3GB))

, zumal eine HD 7970 gut 200 Dollar (plus Steuern) mehr gekostet hat als damals meine GTX 670 OC, in etwa also in der Preisregion einer GTX 680 oder einer GTX 670 mit 4 GB lag (im Nachhinein somit nicht unbedingt das bessere Preis-Leistungs-Verhältnis hatte und selbst die HD 7950 ca. 50 Dollar (plus Steuern) mehr gekostet hätte (zugegeben aber wohl die beste GPU-Wahl damals im Nachhinein gewesen wäre).
Unter Berücksichtigung des exorbitanten Speicheraufpreises damals (als die Hersteller es sich "vergolden" ließen), hätte sich auch im Nachhinein m.E. die größere Version definitiv nicht gelohnt, ähnlich auch noch bei der GTX 770 Nachfolge-Karte) im Gegensatz zu heute wo die Aufpreise für mehr Speicher weitaus moderater sind (die Hersteller es sich nur "versilbern" lassen).
Des Weiteren ist die ganze Chose bedarfsgesteuert und zudem auch noch abhängig vom Entwickler, denn alle Blizzard Spiele laufen mit nVidia Karten i.d.R. besser als mit den AMD Pendants und bis heute bekomme ich dort bei Höchsteinstellungen unter Full-HD/1200p meine 60 fps mit meiner 2 GB GTX 670 OC.
Ein Freund von mir hat sich eine Ur-Titan damals teuer gleistet und was macht er damit (?) ... hauptsächlich Blizzard Spiele spielen, also auch nicht unbedingt ein lohnender/notwendiger/gut dimensionierter Kauf, seine vorherige HD 7970 hätte es fast genauso gut (ohne groß spürbaren Unterschied) getan.
Von "lange verhungert" kann bei der GTX 670 (OC) also gar keine Rede sein, denn so lange so gut werden die vergleichbaren Nachfolge-Kepler/-Maxwell/-Pascal-GPU-Modelle sich jetzt nun nicht mehr halten

.
Natürlich geht das auch irgendwann zu Neige - auch wenn ressourcen-schonende Titel wie Forza Apex, Battlefield 1 oder The Witcher 3 einen länger Freude an einer älteren GPU haben lassen - und es kommt eben darauf an, was man spielt und ob man immer das neuste vom neuen haben muss (glücklicherweise bei mir nie der Fall gewesen, selber Schuld wenn man so ungeduldig ist und für ein teilfertiges Spiel noch Vollpreis dafür hinblättert) und einige der AAA Franchises (GTA, Fallout, Assassin's Creed, und Anno Reihe, um nur einige zu nennen) interessieren mich auch nur mäßig bis gar nicht

.
Bei mir diktiert momentan eigentlich nur Star Citizen ein Aufrüsten in nicht allzu weit entfernter Zukunft, und vielleicht noch die Rise of the Tomb Raider - Anniversary Edition, wenn diese dann irgendwann im Ausverkauf günstig zu haben ist, oder Mass Effect (4) - Andromeda (evt. auch noch ein Quake (5) - Champions).
Die neuen Ableger der Mirror's Edge und Deus Ex Reihen finde ich bisher eher enttäuschend, da muss schon mehr kommen, wenn man nur um aktuelle, größtenteils mäßig umgesetzte Computerspiele flüssig spielen zu können, mehrere 100 Euros für eine neue GPU hinblättern soll (sonst lohnt es zumindest für mich nicht). Das gilt für die Spiele-Entwickler als auch für die Chip-Hersteller/-Architekturen.
Das einzige was dem "Speicher-Wahn" Einhalt gebieten kann, ist ein Boycott durchwachsen bis mies programmierter Spiele und wer ist hier bitteschön so konsequent? Alles andere wird nichts bringen und die Entwickler können das ohne "Effizienzkultur" immer weiter ausarten lassen und die GPU Hersteller freut es natürlich insgeheim wenn so die Aufrüstung frühzeitiger forciert wird bzw. die Karten werden schon darauf ausgelegt (bei nVidia). Die meisten greifen da immer noch zu, auch wenn es dann heißt die Details im Spiel zu reduzieren und mit den Reglern, zu "jonglieren".