News Gaming-Grafikkarten: Mit welchen GPUs gehen eure Rechner in den Herbst?

blende11 schrieb:
mit ihr kann man sehr gut unter 1080p (hoch/ultra)
Das konnte ich schon damals mit der GTX 1660 Ghost OC. ;) Damals für ~ 199 € gekauft. Wie viele Generationen liegen dazwischen? Und nun gibt es wahnsinnige 2 GB mehr dafür? ^^

Ich weiß, dass man damit 1080p zocken kann. Wäre auch schlimm, wenn es nach 4 Generationen in der gleichen Preisklasse, mit nur 2 GB mehr, nicht mehr möglich wäre, oder?
Das war aber auch nicht mein Punkt.


blende11 schrieb:
Man kann nicht von einer RTX 5060 erwarten, das sie 1440p Ultra
Kann man nach 4 Generationen auch etwas anders sehen.

Und wenn du für die nächsten Jahre nur deine speziellen Games zocken willst, is das natürlich ein speziell zugeschnittener Fall, wobei ich auch nicht weiß, ob du z.B. MFG-FPS, als "normale" FPS ansiehst, oder nur von Basis-FPS sprichst.

Klar ... ich hab auch Spiele, da ist eine GTX 1660 absoluter Overkill. Wenn ich dabei bleibe, brauche ich nie was Anderes.

Das muss aber nicht für die Allgemeinheit gelten. Is immer Ansichtssache.


blende11 schrieb:
is vor kurzem hatte ich noch eine GTX 1660 Super mit 6 GB im PC verbaut
Ach! Schau an!

Dann verstehe ich deine Begeisterung über die 2 GB mehr nach 4 Generationen nicht so ganz.

Auch die Leistung dürfte nach meinem Geschmack etwas höher liegen. Wir reden hier von eigentlicher 5050 Leistung, wenn man den Abstand zur 5090 zugrunde legt ("Shrinkflation"). Natürlich reicht das manchem.
Daraus auf die Allgemeinheit zu schließen, finde ich falsch. Gerade für die nächsten Jahre.


blende11 schrieb:
Natürlich ist mehr VRAM zukunftssicherer
Ja.


blende11 schrieb:
max. 8 bis 10 fps ausgemacht
Naja, wenn's um den Unterschied 40, oder 50 FPS geht, macht das eine ganze Menge aus.
Außerdem hab ich nirgendwo gesagt, dass ich überhaupt eine 5060er gut finde, für 1440p Gaming.


blende11 schrieb:
sind mir 160 € Aufpreis dann nicht wert gewesen
Legitim.


blende11 schrieb:
viele lassen sich von Testberichten beeinflussen, wo immer behauptet wird, das die RTX 5060 eine schlechte Karte wäre, aber das ist sie nicht, jedenfalls wenn man mit 1080p/1440p Auflösung spielt.
Aus meiner Sicht ist die 8 GB Version aber wirklich schlecht. Ist natürlich subjektiv und Anwendungsfall.

Überleg' mal ... du hattest vorher eine GTX 1660. Und nun hast du 2 GB mehr, nachdem da schon eine 2060, 3060, 4060 zwischen lagen? Ist das der Fortschritt nach 4 Generationen? Willst du bei der RTX 7000 auch noch 'ne 8 GB Karte kaufen? Ok, wenn's dir reicht. Aber muss nicht für die Allgemeinheit gelten.

Einschränken kann man sich natürlich immer. Aber eine allgemeine Empfehlung kann das ja nicht sein, für 1440p Zocken.

Gut, es gibt immer verschiedene Ansichten. Aber das bleiben sie in diesem Fall auch.

Tatsächlich auch ganz gut zu vergleichen, wie unterschiedlich man das sehen kann, da ich zwischenzeitlich auch mal eine 1660 OC hatte. Sehe das mit der 8 GB 5060 aber absolut anders.

Für mich is das eher ein Notnagel, für unterste Ansprüche.
Empfehlen würde ich diese absolut nicht.


blende11 schrieb:
sollte klar sein, das eine RTX 5060/8 GB eine Mittelklasse-Einstiegs-Grafikkarte ist
Das ist keine Mittelklasse. Mittelklasse kommt von Mitte, also irgendwo im mittleren Bereich zwischen 5050 und 5090.

btw:

Gibt es dir nicht zu denken, dass eine 5050, die mittlerweile eher 5040 Leistung hat, bereits auch eine 8 GB Karte ist? Da sollten doch alle Alarmglocken leuten.

Die 5060 ist sicher keine Mittelklasse. Und mit 8 GB dieser Zeit unwürdig (für das Geld!).

Wem sie reicht, reicht sie. Ok.
Aber man sollte sie nicht als etwas darstellen, was sie nicht ist. Vor allem keine allgemeine Empfehlung für die nächsten Jahre im 1440p Gaming.

Das ist natürlich nur meine Sicht der Dinge.
Frag 20 Leute und du bekommst mindestens 18 verschiedene Antworten/Meinungen.
 
  • Gefällt mir
Reaktionen: blende11
ChrisMK72 schrieb:
Gibt es dir nicht zu denken, dass eine 5050, die mittlerweile eher 5040 Leistung hat

Wenn man diverse Spezifikationen / Chips betrachtet, kann man das so sehen. Aber ich glaube nicht, dass man mit einer 1040 hätte viel AAAA-Premium-Game For The Premium Gamer zocken können -- selbst mit reduzierten Details nicht. Zur unbequemen Wahrheit für PC Gamer zählt dazu, dass sie nicht nur mehr Geld zahlen. Sie zahlen auch deshalb mehr Geld, weil 60 Bilder die Sekunde, an Konsole immer noch meist Optimum (neben 30- und 40-fps-Modi), nur mehr absolut unterstes Existenzminimum sind. Das war lange anders, siehe Fließtext. "Moderne" Bildschirmtechnik hin oder her: Mehr Frames werden auch in Zukunft mehr Geld kosten, solange jedes davon noch immer komplexer wird -- und da (Foto)realismus noch ganz weit weg ist, wird das passieren. Und ja auch, leistungsfähigere KI (Upscaler+Frame Gen) kostet Entwicklungsgeld.

Keine Frage: An einer offenen Plattform hat man Optionen, das ist eigentlich ihr Pluspunkt. Aber: Für die PS5 Pro wurde schon vor Launch gezweifelt, zumindest diskutiert, ob sie das nächste große GTA-Ding nicht wieder in 30 Frames in jeder einzelnen Sekunde rendert. Am PC lässt sich das "Problem" ganz einfach lösen: Ab in den Hardwareshop und die Scheine auf den Tisch. Für eine Handvoll Frames mehr.
 
Svennc schrieb:
Für eine Handvoll Frames mehr
Wobei das eher thematisch zu RDR2, als zu GTA passen würde, vom Titel her. :D ;)

Ansonsten ist eh die Hauptsache, dass jeder mit seinem Zeug zufrieden ist. Ob mit 40, 70, oder 100+ FPS.
Da isses auch völlig schnurz, was ich, oder andere dazu sagen. Wumpe. :jumpin:

In diesem Sinne wünsche ich allen, natürlich auch Blende11 und Dir Svennc viel Spaß, womit ihr auch immer zocken mögt.
Hauptsache Fun! :daumen:
 
  • Gefällt mir
Reaktionen: blende11
Ja, ich bin großer Fan von MFG-100fach. ;)

Und btw: 8 GB sollte so langsam wirklich nicht mehr gekauft werden.
Ich meine jetzt für Neukäufe, die einige Jahre genutzt werden, siehe z.B. Aussagen hier:

 
Der Technische Fortschritt ist so langsam.
Es ist so traurig und langweilig geworden die letzten Jahre.

Fortschritt misst sich am besten in FPS pro Watt.
Bei jeder RDNA gen gab es immer ca 30% mehr FPS pro Watt im Raster pro gen.
FPS Pro Watt RDNA 1 - 4.jpg
Und bei Nvidia gabs zwischen 2022 und 2026 gar keine Verbesserung.
Das ist so langweilig zur zeit.
Zwischen RDNA 2 (2020) und RDNA 5 (2027) werden wir erst eine Verdopplung der Effizienz im Raster sehen.
Das sind über 6 Jahre, und entspricht gerade mal einem Jahres Sprung vom Jahr 2003 auf 2004 oder 2004 auf 2005 oder 2005 auf 2006 was den Fortschritt in Leistung pro Watt angeht
Also der Fortschritt in FPS pro Watt ist 600% langsamer als vor 20 Jahren.
 
@Nighteye dann nimm halt die 9070 als Vergleich, dann hast du mehr Effizienz ;-)
 
@PeacemakerAT Das ist im Endeffekt nicht so relevant für mich.
Meine RX6800 ist auch wieder 21% Effizienter als eine RX6700XT :D
1760621915480.png


Edit: Die RX9070XT ist sogar 11% Ineffizienter als die RX9060XT
1760622177119.png

Also ist die RX9070XT gerade mal 30% besser in FPS pro Watt als meine RX6800.
 
Zuletzt bearbeitet:
Nighteye schrieb:
Und bei Nvidia gabs zwischen 2022 und 2026 gar keine Verbesserung.

Die 4070 verheizt bei gleicher Leistung fast 40% weniger Energie, als die 3080. Deshalb und wegen des mageren VRAMs fiel bei mir die gesamte RTX 3000er-Serie durchs Raster.

Nighteye schrieb:
Der Technische Fortschritt ist so langsam.
Es ist so traurig und langweilig geworden die letzten Jahre.

Der Fortschritt bei der Gaming-Hardware ist der letzte Lichtblick in dieser verkorksten Welt.

Der meiste technische Fortschritt wird für Enshittification, Gängelei der Urhebermafia, und Ausspionieren der User verschwendet.

Neulich noch gelesen: "Styropor ist der billigste Dämmstoff" - sprich preis-/leistungsmäßig null Fortschritt bei der Bautechnik seit Jahrzehnten, und trotzdem werden die Mindestanforderungen rücksichtslos immer weiter aufgeblasen, und die ausufernden Kosten als Ausrede für noch mehr Sozialkahlschlag genutzt.

Leider kann ich mich nicht mal mehr über die schnelle Gaming-Hardware freuen, wegen der gameplaymäßigen Konsolenverseuchung des AAA-Marktes.
 
JMP $FCE2 schrieb:
Die 4070 verheizt bei gleicher Leistung fast 40% weniger Energie, als die 3080.
Ja. Ist halt 8nm 2020 Technik (Ampere) vs 5nm 2022 Technik (Ada Lovelace)
2022 war der letzte Sprung in form eines Die Shrinks von Nvidia.
Der nächste kommt erst 2027. Halbes Jahrzehnt langeweile.
1760631204404.png
 
Nighteye schrieb:
Der nächste kommt erst 2027. Halbes Jahrzehnt langeweile.

Alle 2 Jahre aufrüsten wie zu Voodoo-Zeiten wäre mir inzwischen zu lästig, aus dem Alter bin ich raus.

Und eigentlich war schon die 4070 ein reiner Luxuskauf "zum Spaß", weil ich praktisch nur Overwatch 2, Genshin Impact und Wuthering Waves spiele.

Es gibt keine AAA-Games, die mir eine vergleichbare Bewegungsfreiheit bieten, nur noch Quicktime-Event-Filme mit Protzgrafik. Kein würdiges Half-Life 3 weit und breit.
 
Svennc schrieb:
Aber: Wer Geld sparen will, sollte das nächste Frames-pro-Sekunde-Upgrade™ wahrscheinlich besser nicht mitmachen. Denn Nvidia pushen bereits nicht grundlos den nächsten FPS-Level am PC. :daumen:

Mit 1000 Hz braucht man wieder weniger fps, zumindest auf OLED-Bildschirmen mit ihrem unbrauchbaren VRR.

Bei 1000 Hz sollten Judder und Tearing weitgehend unsichtbar sein, so dass man nicht mehr auf VRR angewiesen ist. Auch der Input Lag von Vsync wäre mit 1 ms Aktualisierungsrate nicht mehr der Rede wert.
 
Ich habe als meine aktuellste Grafikkarte im Desktop-PC noch eine NVIDIA GeForce GTX 750Ti mit nur 2 GB RAM!
 
JoMango schrieb:
meine aktuellste Grafikkarte im Desktop-PC
JoMango schrieb:
NVIDIA GeForce GTX 750Ti mit nur 2 GB RAM!
Wenn man nicht spielt oder alte Schinken spielt reicht das ja.
Wobei wenn man nicht spielt würde ich die iGPU nutzen ;-)
 
World of Warcraft bei niedrigen Grafikeinstellungen ist nicht so anspruchsvoll. Warum sollte ich mir eine neue Grafikkarte einbauen die unmengen an Strom verbraucht. Mir reicht es so wie es ist.

Irgendwann mal, wenn das nicht mehr ausreicht oder defekt ist, dann wird neu gekauft.

Die iGPU (Intel® HD Graphics 3000) dagegen tuts nicht mehr bei World of Warcraft. Für normales arbeiten würde die allerdings auch ausreichen.
 
JoMango schrieb:
Mir reicht es so wie es ist.
Darauf kommt es im Grunde an, das muss ohnehin jeder für sich selbst entscheiden.
Bei CB wird man halt eher die andere Sorte Mensch antreffen ... was unter 8K@240Hz & PT zocke ich sowieso nichts :D
 
JoMango schrieb:
Warum sollte ich mir eine neue Grafikkarte einbauen die unmengen an Strom verbraucht. Mir reicht es so wie es ist.
Diese Argumentation ist nicht plausibel. Jede aktuellere GPU würde mit den von dir gewählten Settings weniger Strom verbrauchen. Während deine alte Gurke unter Volllast ihr bestes gibt, würde sich eine moderne GPU dabei langweilen.

EDIT: Nur mal als Beispiel, und da ist deine GPU noch einige Generationen älter.
1761574523759.png

https://www.computerbase.de/artikel...x-2070-3070-4070-5070-vergleich.92779/seite-4
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: PeacemakerAT
JoMango schrieb:
Ich habe als meine aktuellste Grafikkarte im Desktop-PC noch eine NVIDIA GeForce GTX 750Ti mit nur 2 GB RAM!

Zumindest Overwatch 1 lief damit durchaus brauchbar. Und mit Genshin Impact könnte man sogar ein relativ aktuelles Open-World-Game damit zocken. Zwar nur Anime-Grafik, dafür ein Wunder an Genügsamkeit.
 
  • Gefällt mir
Reaktionen: JoMango
ChrisMK72 schrieb:
Ob die jetzt 3.000, oder 6.000 kostet. Wumpe. :king:
Wenn man die Karte nicht beruflich oder für LLMs nutzt, dann bekommt NV in der Mitte irgendwann den Mittelfinger^^.
Wer das Ding nur zum zocken hernimmt, der WILL zwingend nicht nochmal 1000 drauflegen, auch wenn man es könnte, denn Geld stinkt nicht und ich will es eigentlich auch nicht loswerden :D
Aber am Ende läuft es bis 2030 vermutlich auf die 6000 € hinaus, sofern wir überhaupt noch bis dahin GPUs in dieser Form haben.
Zumindest wird wohl oder übel klar sein, dass 2027 eine etwaige 6090 definitiv >2200-2500$ kosten dürfte.
Was bei uns dann nach erstem abflauen im Markt nicht nur 3000, sondern eher 3500€ dauerhaft sein dürften.
3500€ tun schon Aua.
Für 25 Monate.... gut, du bekommst beim verkauf immer 35-60% deines Preises wieder raus durch den Verkauf, aber dennoch, weh tut es. Wumpe ist da nichts, Geld wächst nicht auf Bäumen.
Und auch wenn hier viele Enthusiasten unterwegs sind, mag ich doch hart bezweifeln, dass jeder aufhausig mit seinem (mehr oder weniger - je nach Job) hart erarbeiteten Geld so umgeht.
Auch wenn vieles dann am Ende aus Aktien und weiteren Investments stammt, Geld ist Geld und Reich wird man nicht durchs Geld ausgeben, sondern durchs halten und investieren....
Bei Leuten die damit Geld verdienen ist das am Ende natürlich eine Betriebsausgabe, also auch steuerlich absetzbar, klar.
ChrisMK72 schrieb:
Ich finde die 5060 8 GB eine der schrecklichsten Karten, dieser Reihe
Wie schon mal geschrieben wurde, von dieser Karte hätten genau 0 Stück produziert werden dürfen, maximal für die Tonne das Teil.
12-16GB VRAM und ein NoBrainer.... der arme Chip kann nichts für die VRAM Verkrüppelung.... denn der liefert soweit gut ab.
Naja .... als Transcoding GPU in meinem Plex Server macht sie sich als Ersatz für die 3050 mal sicherlich irgendwann gut :D
AV1 geht damit nämlich :D
blende11 schrieb:
8 GB VRAM reichen bis 1440p die nächsten 3 bis 4 Jahre aus,
nein
Es gibt hierzu genügend Tests, welche dir bei 1080p schon bescheinigen, dass es nicht reicht, selbst wenn man die Texturen stark runterstellt.
Gerade mit den KI Features wird meistens sogar noch mehr belegt.
Also NEIN - 8GB waren direkt zu Release schon 3 Jahre outdated.
Und NEIN ich nehme hier jetzt für Benches kein CS2, Valorant, Dota2 und andere Games her, weil diese mit der Realität und sinnhaftigkeit gar nichts zu tun haben.
Diese GPUs werden mit den Features für neue Titel verkauft und sind nicht für den E-Sports Bereich da.
Denn obige und ältere Titel, laufen auf jedem alten Toaster.
Dafür braucht man keine 5060/Ti.
Deshalb ist die Ausstattung absolut inakzeptabel. Punkt.
Auch wenn manche sich etwas anderes einreden möchten, diese Karten hätten so nie hergestellt werden dürfen, die Reduktion der Fertigungsmengen spricht auch Bände.
Elektroschrott wurde schon zu viel produziert.... aber jedes mal aufs neue hat NV es nur noch mehr wissen wollen!
 
  • Gefällt mir
Reaktionen: Mcr-King und ChrisMK72
Zurück
Oben