Test Nvidia-Generationenvergleich: GeForce RTX 2070, 3070, 4070 und 5070 im Duell

Ich bin nach wie vor zufrieden mit der 4070, guter Kauf.
Effizent, ausreichende Leistung, gut zu undervolten und hat noch den normalen PCIe Stecker.
Derzeit würde ich bei Neukaufwohl in eine 5060 oder 5070 ti/16 investieren.
 
CDLABSRadonP... schrieb:
Vor allen Dingen vergisst du, worum es im Kern geht.
Es geht darum etwas über alle Maßen hinweg madig zu reden und dabei immer in eine gewisse Richtung zu denken, anstatt zu differenzieren. Ja, darum geht es im Kern. ;)
Auch dieses permanente VRAM Geschacher. Der wievielte Test ist das nun dieses Jahr, wo 12GB selbst in höchsten Settings/4K völlig ausreichend sind? 9/10 AAA Spiele und dann kann man es mit Minimalaufwand korrigieren.
CDLABSRadonP... schrieb:
Wäre Blackwell mal endlich, endlich einen Zwischengen geworden, die kurzfristig nachgeschoben worden wäre, wäre Blackwell unproblematisch.
Blackwell ist gar nicht problematisch als solches, man ist immer noch schneller als die Konkurrenz und hat mehr und meines Erachtens bessere Features. Der 9800X3D ist ja auch nicht problematisch, zumindest existiert in dem Forum keiner der das so sieht, auch wenn der Abstand zur Konkurrenz eher klein ist und der Aufpreis happig. Warum soll es Blackwell dann sein? Der "Sprung" ist eben klein und langweilig. Für Hersteller Agnostiker ist RDNA4 auch nicht spannender.

Es geht doch nur um Hersteller A ist gut und Hersteller B ist böse, das ist das was man hier lernt.
CDLABSRadonP... schrieb:
Aber nach solch einer Wartezeit?
Wie war denn die Wartezeit auf die Verbesserungen mit einer 7900XTX so?
Um mal die Worte non Nighteye zu benutzen: Woher die Leistung herbeizaubern? ;)
Man tut ja gerade so, als ob bei AMD Amateure arbeiten würden und Nvidia müsse wieder weit davonziehen.
Es wäre mal an der Zeit, dass AMD im GPU Markt die schnellsten Lösungen stellt, aber wie wahrscheinlich ist das nächste Generation mit neuen Prozessen? Verschwindend gering.

Man versucht mit aller Macht seit Beginn an ein Narrativ zu spinnen, Blackwell wären schlechte Karten, dabei sind die Radeons noch schwächer und haben immer noch kein Redstone. So eine Verklärung der Realität gab es glaube ich überhaupt noch nie. Stell dir einmal vor man würde so über den 9800X3D reden, was da los wäre.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ElliotAlderson und DaHell63
Quidproquo77 schrieb:
Es geht darum etwas über alle Maßen hinweg madig zu reden und dabei immer in eine gewisse Richtung zu denken, anstatt zu differenzieren. Ja, darum geht es im Kern. ;)
Undifferenziertheit tritt viel auf.
Quidproquo77 schrieb:
Auch dieses permanente VRAM Geschacher. Der wievielte Test ist das nun dieses Jahr, wo 12GB selbst in höchsten Settings/4K völlig ausreichend sind? 9/10 AAA Spiele und dann kann man es mit Minimalaufwand korrigieren.
Mittelfristig braucht es halt mehr, entsprechend wird man mittelfristig auch leiden: Entweder unter ausbleibendem Fortschritt oder nicht nutzbaren Settings, bei denen es bloß am VRAM scheitert.
Quidproquo77 schrieb:
Blackwell ist gar nicht problematisch als solches, man ist immer noch schneller als die Konkurrenz und hat mehr und meines Erachtens bessere Features. Der 9800X3D ist ja auch nicht problematisch, zumindest existiert in dem Forum keiner der das so sieht, auch wenn der Abstand zur Konkurrenz eher klein ist. Warum soll es Blackwell dann sein?
Das wäre wie Haswell / Skylake / Kabylake stellt kein Problem dar, weil man immer noch schneller und reicher an Features ist als die Konkurrenz --- der Fehler sollte klar sein.
Quidproquo77 schrieb:
Der "Sprung" ist eben klein und langweilig. Für Hersteller Agnostiker ist RDNA4 auch nicht spannender.
RDNA4 ist dadurch für Herstelleragnostiker spannend, dass AMD solche Punktladungen geliefert hat, dass sie auch in Betracht kommen.
Quidproquo77 schrieb:
Es geht doch nur um Hersteller A ist gut und Hersteller B ist böse, das ist das was man hier lernt.
Ja, das versuchen immer Leute in Situationen einzureden. Dabei ist glasklar, dass alle diese Firmen nicht gut sind. Es gibt keine Firma wie Soulbottles, wie Framework, keine whatever, die auch GPUs herstellt.
Quidproquo77 schrieb:
Wie war denn die Wartezeit auf die Verbesserungen mit einer 7900XTX so?
Die Enttäuschung hier war doch damals irrehoch. Im Vorfeld gab es auch klar irreführende Folien, die hohe Effizienzgewinne versprachen. Vom erhofften V-Cache ist auch nie was angekommen.
Quidproquo77 schrieb:
Um mal die Worte non Nighteye zu benutzen: Woher die Leistung herbeizaubern? ;)
Man tut ja gerade so, als ob bei AMD Amateure arbeiten würden und Nvidia müsse wieder weit davonziehen.
Es wirkte halt so, als hätte AMD die Hoffnung aufgegeben und wurde dann davon überrascht, dass Blackwell doch nicht der Bringen geworden ist. Das haben sie jetzt ganz ordentlich nutzen können.

Früheren Rückstand aufzuholen und gleichzeitig nochmals draufzulegen ist nie leicht.
Quidproquo77 schrieb:
Es wäre mal an der Zeit, dass AMD im GPU Markt die schnellsten Lösungen stellt, aber wie wahrscheinlich ist das nächste Generation mit neuen Prozessen?
Definitiv braucht es wieder wenigstens mal eine Radeon-5000-Gen, in der sie allein schon deshalb dominieren, weil sie früher da und gut sind.
Quidproquo77 schrieb:
Verschwindend gering.
Wenn sie alles geben, jetzt Navi48 shrinken und einen GDDR7-Controller verpassen um schonmal Übung bekommen und insgesamt dann mit UDNA/RDNA5 in die Vollen gehen? Vorhanden. Gingen sie in der Vergangenheit bei sowas in die Vollen? Nein.
 
  • Gefällt mir
Reaktionen: SweetOhm
CDLABSRadonP... schrieb:
Mittelfristig braucht es halt mehr, entsprechend wird man mittelfristig auch leiden: Entweder unter ausbleibendem Fortschritt oder nicht nutzbaren Settings, bei denen es bloß am VRAM scheitert.
Ja, aber man hat gesehen wie langsam der VRAM Bedarf steigt, selbst mit einer 8GB GPU ist man in QHD bei Ultra Details in den Percentilen genauso schnell wie die 16GB Variante, wenn man Dragon Age und Spiderman aus dem Parcour entfernt bzw. die Regler bedient.
CDLABSRadonP... schrieb:
Das wäre wie Haswell / Skylake / Kabylake stellt kein Problem dar, weil man immer noch schneller und reicher an Features ist als die Konkurrenz --- der Fehler sollte klar sein.
Eine Generation die einen kleineren Sprung bietet, maßgeblich wohl aufgrund des Prozesses ist wie Haswell, Skylake, Kabylake also 3 Generationen zusammen? Das ergibt doch keinen Sinn. Und das Problem selbst ist ja gar nicht vorhanden. Sieht man ja am 9800X3D. Der hat wie Ada den riesigen Effizienzvorsprung eingebüßt, auch in Anwendungen, aber trotzdem noch die beste Spiele CPU. Percetile etwa 10% vorne. Da gibts doch auch kein "Problem". Man redet sich das einfach herbei, weil man nicht will, dass Nvidia die schnelleren Produkte hat und soviel Marktanteil. Thats it. Nicht mehr, nicht weniger.
CDLABSRadonP... schrieb:
RDNA4 ist dadurch für Herstelleragnostiker spannend, dass AMD solche Punktladungen geliefert hat, dass sie auch in Betracht kommen.
Spannend != Spannender.
CDLABSRadonP... schrieb:
Ja, das versuchen immer Leute in Situationen einzureden.
Die unterschiedlichen Bewertungsmaßstäbe sind aber immanent. Stell dir doch einmal vor AMD hätte Blackwell gebracht und Nvidia RDNA4. Dann wäre das doch genauso wie bei Arrow Lake angekommen.
CDLABSRadonP... schrieb:
Früheren Rückstand aufzuholen und gleichzeitig nochmals draufzulegen ist nie leicht.
Scheint aber das zu sein, was man sich so vorstellt. Du hast ja oben geschrieben es wäre so wie 3 eher schwache Generationen und Blackwell ist gemessen an der Konkurrenz einfach nicht schwach, vielleicht momentan etwas zu teuer, das wars. Sowas zu schreiben zeugt für mich schon etwas fehlendem Realitätssinn.
 
Zuletzt bearbeitet:
Quidproquo77 schrieb:
Eine Generation die einen kleineren Sprung bietet, maßgeblich wohl aufgrund des Prozesses ist wie Haswell, Skylake, Kabylake also 3 Generationen zusammen? Das ergibt doch keinen Sinn. Und das Problem selbst ist ja gar nicht vorhanden. Sieht man ja am 9800X3D. Der hat wie Ada den riesigen Effizienzvorsprung eingebüßt, auch in Anwendungen, aber trotzdem noch die beste Spiele CPU. Percetile etwa 10% vorne. Da gibts doch auch kein "Problem".
Quidproquo77 schrieb:
Scheint aber das zu sein, was man sich so vorstellt. Du hast ja oben geschrieben es wäre so wie 3 eher schwache Generationen und Blackwell ist gemessen an der Konkurrenz einfach nicht schwach, vielleicht momentan etwas zu teuer, das wars. Sowas zu schreiben zeugt für mich schon etwas fehlendem Realitätssinn.
Auf den Rest gehe ich später ein, hierauf direkt, um das Missverständnis zu beseitigen:
CDLABSRadonP... schrieb:
Das wäre wie Haswell / Skylake / Kabylake stellt kein Problem dar, weil man immer noch schneller und reicher an Features ist als die Konkurrenz --- der Fehler sollte klar sein.
Die Schrägstriche stehen da mit Absicht, es geht jeweils um Haswell, Skylake oder Kabylake.
 
  • Gefällt mir
Reaktionen: Duggan und SweetOhm
DevPandi schrieb:
Wenn du von der RTX 2070 zur RTX 5070 gehst, ist der Sprung auf jeden Fall ordentlich.
Wäre ja auch traurig, wenn nicht. Liegen doch mittlerweile 2 Generationen + 2 Refreshes zwischen denen (2070S, 3070, 4070, 4070S).
Wenn man 7 Jahre alte Hardware durch etwas neues ersetzt, ist ein Leistungssprung doch selbstverständlich.
Nimmt man eine 5 Jahre alte 3070 als Bezugspunkt, ist der Sprung bereits nicht mehr so groß und ausgehend von einer 4070 fast schon vernachlässigbar.
 
  • Gefällt mir
Reaktionen: eXe777
Quidproquo77 schrieb:
Spannend != Spannender.
Mein Fehler. Habe dich deshalb missverstanden.
Quidproquo77 schrieb:
Die unterschiedlichen Bewertungsmaßstäbe sind aber immanent. Stell dir doch einmal vor AMD hätte Blackwell gebracht und Nvidia RDNA4.
Wie genau spielst du dieses Gedankenspiel, denn dafür gibt es diverse unterschiedliche Möglichkeiten. Ich nehme mal die zwei einleuchendsten:
AMD hätte Blackwell als Architektur genutzt, aber mit dem gleichen Portfolio gearbeitet wie jetzt und Nvidia hätte RDNA4 genutzt, aber mit dem gleichen Portfolio wie jetzt. Das hätte kaum einen Unterschied gemacht, schließlich sind sie sich so ähnlich.
AMD hätte alle Blackwell-SKUs gebracht, Nvidia hätte ebenfalls alle der SKUs gebracht wie AMD jetzt. Das wäre viel besser für AMD ausgefallen und für Nvidia ziemlich übel. (also natürlich nicht für die Firma insgesamt; siehe Server) Einfach aus dem Grund, dass sie dann eine Zwischengen mit wenig Fortschritt (klar, DP 2.1 und PCIe 5 wären weiterhin dabei) und mit kleinem Portfolio zugleich gehabt hätten. AMD jetzt hat hingegen eine Gen mit gutem Fortschritt bzgl. Gen2Gen und ein kleines Portfolio. Das kann man schon machen.
Ich glaube aber zu wissen, was du sagen willst; nämlich, dass Radeons und Geforces nicht gleich bewertet werden, weil sie woanders herkommen. Das ist so, aber das ist auch sonst im Leben so. Es ist nun einmal nicht das gleiche, wenn (jetzt ganz auf die Spitze getrieben) das erste Produkt eines Startups direkt das Niveau der jährlichen Neuvorstellung eines etablierten Hersteller erreicht. Letztere Neuvorstellung ist eine Notiz, ersteres ein Hammer.
Und ja, selbst wenn die letzte Verbesserung des etablierten Herstellers nur ein Herumkrebsen war ändert das nichts an dieser Grundsituation.

Ich gestalte es jetzt mal weniger auf die Spitze getrieben und mit direktem Hardwarebezug: Canon würde ankündigen, dass sie doch eine EUV-Belichtungsmaschine hinbekommen haben und ab jetzt ausliefern, die ansonsten genausogut, aber 5% schneller als aktuelle ASML-Hardware. Dann wäre das eine Sensation, ein neues ASML-Gerät, das 5% mehr Wafern pro Zeiteinheit bringt, hingegen nicht.

Und zurück zu Grakas, abermals weniger auf die Spitze getrieben: Wenn die B580 von Intel auch so gut geworden wäre wie die 5060 Ti und 9060 XT, dann wäre das ebenfalls eine Sensation gewesen.
Quidproquo77 schrieb:
Dann wäre das doch genauso wie bei Arrow Lake angekommen.
Hmm? Wo ist da der Zusammenhang zu Arrowlake, wo ist da die massive Effizienzverbesserung, das Neutralisieren der Skandale, der BackInTheMobileSpace-Moment? Ja, ArrowLake ist im Desktop nicht gut angekommen, aber dass in den drei Punkten geliefert wurde wird dennoch kaum jemand abstreiten. Davon ist hier nix zu spüren.
 
Sind die 70er Karten wirklich Mittelklasse? 🤔
Ich würde es eher als gehobene Mittelklasse betrachten.

50er -> Entry
60er -> Mittelklasse
70er -> gehobene Mittelklasse
80er -> Oberklasse
90er -> High-End

Anders macht das für mich keinen Sinn.
Ergänzung ()

Nighteye schrieb:
Bestätigt nochmals, RTX 5000 Käufer sind zu bedauern.

Würde ich generell so nicht unterschreiben.
Wer von einer RTX 4000 auf 5000 gewechselt ist, ist zu bedauern, ja.
Ich bin von einer GTX 1000 auf eine RTX 5000 gewechselt. Da sind 9 Jahre Entwicklung zwischen, für mich ein riesiger Schritt.
 
  • Gefällt mir
Reaktionen: Wolfgang.R-357:
OK was ist dann die TI also 60 TI ,70 TI und 80 TI dann ?
Auch Mittelklasse oder auf dem Weg zur gehobene Mittelklasse die 60 TI ?
 
DevPandi schrieb:
Montag Morgen, auf dem Weg zur Arbeit und die Switch 2 vergessen. Mir ist langweilig.

Ansonsten: Musste sogar eine zweite Portion Popcorn machen.
Morgens halb sieben in Deutschland: Popcorn :D.
ElliotAlderson schrieb:
Es ist einfach der übliche Fanboykrieg. Da zählt jedes Perzentil, Hauptsache besser als die Konkurrenz.
Das gehört in gewisser Weise auch dazu, denke ich. Es wird in meinen Augen einfach kurios, wenn man dann die Effizienzwerte zur Argumentation heranzieht. Bei den aufgerufenen Preisen speziell für Blackwell (und GPUs generell) muss man schon schmunzeln, wenn man dann liest, dass die eigene Karte 0,01FPS/Watt mehr abliefert als die Konkurrenz.
 
aid0nex schrieb:
Ich bin von einer GTX 1000 auf eine RTX 5000 gewechselt. Da sind 9 Jahre Entwicklung
Ich Korrigiere das mal.
2016-2022 sind 6 Jahre :daumen:
Die 3 Extra Jahre für RTX 5000 waren ja Belanglos. Kann man auch gleich anstatt 9 Jahre zu warten, nur 6 Jahre warten und RTX 4000 kaufen und die gleiche fps pro Watt haben.
Einziger nennenswerter unterschied und Vor(Nach)teil von RTX 5000 ist die Software MFGx4.

Aber ja wenn man 2022 oder 2023 oder 2024 keine RTX 4000 gekauft hat, kann man im Jahr 2025 gern nochmal zur Asbach Uralt Technik von 2022 im Relabel aka RTX 5000 greifen, anstatt ende 2026 eine wirklich neue gen mit Shrink (RTX 6000) zu wählen.
Die einen wollen halt gern 1x öfter Sinnfrei aufrüsten pro Jahrzehnt, die anderen sind schlau.
 
Kann man die Tests auch auf die mobilen Grafikkarten in Notebook ableiten? Da sollte die Sprünge im Generationenvergleich doch ähnlich sein, oder?
 
Nighteye schrieb:
Aber ja wenn man 2022 oder 2023 oder 2024 keine RTX 4000 gekauft hat, kann man im Jahr 2025 gern nochmal zur Asbach Uralt Technik von 2022 im Relabel aka RTX 5000 greifen, anstatt ende 2026 eine wirklich neue gen mit Shrink (RTX 6000) zu wählen.
Die einen wollen halt gern 1x öfter Sinnfrei aufrüsten pro Jahrzehnt, die anderen sind schlau.

Keine Korrektur ohne Korrektur:

Die wirklich "Schlauen" warten jeweils die SPecs der nächsten Konsolen-Gen ab, soweit möglich. :D Denn dass die Pascal-Gen überhaupt so lange gehalten hat, hat maßgeblich mit PS5 und Series X zu tun. Deren Grafik-Hardware am ehesten vergleichbar mit einer 6700 (non-XT) ist, sprich in Sachen Rohleistung kein gewaltiges Upgrade über Pascal war. Dazu kommt, dass die ersten RT-Pflichtübungen wie Indy und Doom erst viele Jahre in der Entwicklung verbrachten, bis sie erschienen. Früher hätte es vor Release die ersten ungeduldigen Duke-Nukem-Forever-Witzchen gegeben. Heute sind 3, 4, 5, 7 Jahre völlig normal.

Und PC-Showcases wie Can It Run Crysis, Doom (Carmack-Version) und Wing Commander sind ja mausetot. So tot, dass eine ganze Generation mittlerweile denkt, PlayStation-Games, die am PC mit drei Billionen Frames pro Sekunde liefen, seien schon immer der Standard gewesen. In deren Augen ist selbst ein popeliges Dark Ages ein Optimierungsfail, weil es auf zehn Jahre alter Hardware jetzt mal nicht mehr startet -- und auch aufm Rechner von vor vier Jahren keine Benchmark-Rekorde mehr bricht. 😜
 
Beim Zocken ist für mich der gesamte Stromverbrauch des PCs bei 60 fps am wichtigsten.

Ich dachte, meine aktuelle GTX 3050 ist generell sparsamer als meine Vorgänger, die GTX 1050. Fehlanzeige! Buchstäblich an allen Stellen. Zocken unter Vollast könnte die einzige Ausnahme sein.

Bei Idle, Stream 1080p und Zocken mit 60-fps-Cap ist der Stromverbrauch entweder identisch oder die GTX 1050 ist um 5 W sparsamer.

Mit der GTX 1050 unter Volllast beim Zocken verbrauchte mein ganzer PC 133 W.
Mit der RTX 3050 unter Vollast beim Zocken verbraucht mein ganzer PC 161 W. Aber auch deutlich mehr FPS.
Beide sind 75 W Karten ohne Stromstecker.

Mit dem FPS-Cap von 60 geht der Verbrauch auf ~ 95 W mit beiden GPUS.
Mit dem FPS-Cap von 30 geht der Verbrauch auf ~ 80 W mit beiden GPUS.
Getestet in ~8 Spielen: dasselbe Muster.

Da ist das eine, was mich tierisch aufregt. Und die zweite im folgenden Diagramm. Sowohl mit der alten als auch mit der neuen GPU ist dasselbe Muster zu erkennen.

1755590887543.png

Der Stromverbrauch beim Zocken steigt nicht linear mit der Erhöhung des FPS, sondern stufenweise. Alles mit dem FPS-Limiter experimentiert in allen ~8 Spielen.
Würde ich die Spiele im Bereich von ~ 28 bis ~ 55 FPS zocken, ist der Verbrauch des gesamten PCs identisch. Mit mehr als ~ 55 FPS steigt der Verbrauch um die 15 W. Bis zu ~27 FPS sinkt der Verbrauch um die 15 W. Die nächste Stufe ist bei ~80 FPS.

An solchen Stellen hätte man doch optimieren sollen damit der FPS- Limiter bei 30 und 60 fps -caps eine größere Bedeutung bekommt?!

Edit: Da ich weder Autorennen noch Ego-Shooter zocke, brauche ich gar keine hohe FPS-Zahlen.
 
Zuletzt bearbeitet:
Nighteye schrieb:
Ich Korrigiere das mal.
2016-2022 sind 6 Jahre :daumen:
Die 3 Extra Jahre für RTX 5000 waren ja Belanglos.

Blödsinn.
Klar, die tausenden von Nvidia Ingenieuren haben 3 Jahre lang Däumchen gedreht und Lovelace einfach nur zu Blackwell umbenannt und sonst gar nichts gemacht. Irgendwelche Foristen bei CB wissen das natürlich besser als die schlausten Köpfe die die Branche so zu bieten hat. :rolleyes:
Ergänzung ()

Nighteye schrieb:
Die einen wollen halt gern 1x öfter Sinnfrei aufrüsten pro Jahrzehnt, die anderen sind schlau.

Ich hätte ja gerne sachlich mit dir diskutiert aber genau wegen sowas fange ich damit gar nicht erst an. Lese ich leider immer häufiger bei CB. Man kommentiert eine Meinung, Ansicht o.ä. und anstatt dass darauf mit sachlichen Argumenten geantwortet wird werden alle mit einer anderen Meinung als dumm, hohl und blöd geframed.
 
aid0nex schrieb:
Klar, die tausenden von Nvidia Ingenieuren haben 3 Jahre lang Däumchen gedreht und Lovelace einfach nur zu Blackwell umbenannt und sonst gar nichts gemacht. Irgendwelche Foristen bei CB wissen das natürlich besser als die schlausten Köpfe die die Branche so zu bieten hat. :rolleyes:

Ich hätte ja gerne sachlich mit dir diskutiert aber genau wegen sowas fange ich damit gar nicht erst an.
Wieso haben bei manchen Charts dieses Computerbase Tests dann die Ada Lovelace Varianten eine höhere Energie Effizienz ala FPS pro Watt als Blackwell ? Dürfte ja nicht sein bei deinen vergötterten super schlauen Köpfe der Welt die bei Nvidia Arbeiten.
 
  • Gefällt mir
Reaktionen: iWebi
Nighteye schrieb:
Wieso haben bei manchen Charts dieses Computerbase Tests dann die Ada Lovelace Varianten eine höhere Energie Effizienz ala FPS pro Watt als Blackwell ?

Das Problem an der Stelle ist, dass du die Diskussion auf etwas lenkst, dass nicht zur Debatte stand und das ich auch nicht behauptet habe.
Ich schrieb klipp und klar:

aid0nex schrieb:
Wer von einer RTX 4000 auf 5000 gewechselt ist, ist zu bedauern, ja.

Letztlich empfinde ich den Fortschritt in dieser Generation für den Endkunden also auch als zu gering, als dass sich ein Wechsel gelohnt hätte. Aber die Behauptung, dass Lovelace und Blackwell technisch quasi gleich sind oder Blackwell sogar ein Rückschritt wäre, ist schlichtweg und populistische, ungebildete und falsche Aussage.

Nun kommst du aber an und nennst mich dumm, weil ich nicht schon vor 3 Jahren von Pascal auf Lovelace gewechselt bin sondern jetzt erst von Pascal auf Blackwell wechsle, dabei verkennst du alle möglichen Umstände. Vor 3 Jahren brauchte ich noch gar keinen Wechsel, da die Titel die ich zu der Zeit in den Auflösungen und Grafikdetails gespielt habe noch nicht mehr Leistung benötigten. 2022 hatte ich persönlich noch gar keinen Grund aufzurüsten. Den Grund bekomme ich erst 2025 - so möchte ich z.B. das neue Battlefield 6 auf meinem neuen 120Hz UWQHD Monitor spielen, wofür meine GTX 1080 nicht mehr ausreichend war. Ich rüste, wie jeder rationale Mensch, dann auf, wenn meine vorhandene Hardware für meine persönlichen Bedürfnisse nicht mehr ausreichend ist und schaue mich dann an Tag X nach geeigneter Hardware um - und da werde ich sicherlich 3 Jahre alte Hardware kaufen, wenn gerade eine neue Gen raus gekommen ist. Vielleicht hab ich das Geld für die GPU die 3 Jahre ja beiseite gelegt und investiert? 😉 Na wer da wohl schlauer war? 🤔 Ich habe schlichtweg keine Lust mehr mit Leuten auf CB zu diskutieren, die ihre Meinung, ihr Verhalten, Vorhaben und Handeln als das einzig richtige und wahre markieren und alle anderen Menschen, die eine minimalst davon abweichende Entscheidung getroffen haben für dumm erklären - wie gesagt: Mit jemanden, der so in eine Diskussion geht, möchte ich gar nicht mehr sachlich reden. Daher lasse ich es an der Stelle auch ganz sein.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Peter73
Zurück
Oben