Test Gaming-Grafikkarten 2026 im Test: GeForce-, Radeon- & Arc-Benchmarks im neuen Testparcours

Wird immer schwieriger zu vergleichen, zumal bei den eigentlichen Gegnern oft eine große Preislücke klafft. Dazu ständiger Fortschritt im Feature Set. Aber dann soll man doch bitte noch die Leistungsaufnahme beachten.

Daher gehören eigentlich P/L und Verbrauch/L Tabellen heute dazu. (haben wir ja in anderen Artikeln oft)

Puh, will kein Artikelschreiber sein, um hier eine sinnvolle Bewertung außerhalb von Rohdaten abzugeben.
 
Return2Burn schrieb:
@Wolfgang Hab ich das den Artikel richtig entnommen, das ihr bei Nvidia mit DLSS4.0 nicht mit 4.5 getestet habt? Könnte ich also davon ausgehen, das bei DLSS4.5 die Werte niedriger ausfallen, als hier im Test?
Ja, mit DLSS 4.5 werden die meisten Spiele etwas langsamer laufen als mit DLSS 4. Auf einer RTX 4000/5000 wird sich der Unterschied in Grenzen halten, auf einer RTX 2000/3000 wird er größer sein.

Hier sind ein paar Benchmarks zu DLSS 4 vs. DLSS 4.5 :)
https://www.computerbase.de/artikel...ion-test.95687/seite-3#abschnitt_erstes_fazit
 
  • Gefällt mir
Reaktionen: MariaDocks, Blaze1987, jo0 und 2 andere
Return2Burn schrieb:
Könnte ich also davon ausgehen, das bei DLSS4.5 die Werte niedriger ausfallen, als hier im Test?
Die Balken bei gleichen Einstellung sind kürzer, aber Nvidia sieht die zwei unter 4.5 laufenden Modelle gar nicht für Verwendung mit den hier gewählten Einstellungen vor.
 
  • Gefällt mir
Reaktionen: Grestorn, Quidproquo77 und Jan
Interessant, wie die 4090 bei "nur" WQHD immer noch ihre Leistung nicht auf die Straße bekommt, während die 5090 mittlerweile einen stabilen Abstand halten kann (was sie bei Release noch nicht hatte) und anscheinend nicht so drastisch durch die geringe Auflösung eingebremst wird.
Hier ist sogar fast die 9070XT so schnell wie die 4090.
1778076241595.png
 
Aktuell ist es tatsächlich relativ langweilig auf dem Grafikkarten Markt.
Die aktuellen Karten sind jetzt alle lang genug draussen, so dass nix komisches passieren sollte.

Ich persönlich bin mit meiner 9060XT sehr zufrieden. Wäre aber auch mit ner 5060ti genauso zufrieden
 
EmmanuelMar schrieb:
Es ist die GPU mit dem besten Preis-Leistungs-Verhältnis dieser Generation auf dem Markt.

In den Adrenalin-Treibern habe ich im Wesentlichen die GPU-Leistung so eingestellt, dass sie zwischen 300 und 285 W verbraucht (Leistung/GPU-Leistungseinstellung).

Bei 2160p- und 1440p-Bildschirmen irrt sich jeder, der glaubt, mit Raytracing bei den genannten Bildschirmauflösungen unter 250 W oder weniger Stromverbrauch spielen zu können.
Wie ich geschrieben habe betrifft P/L NUR den Neukauf und die Rohdaten, nicht aber das Langzeit und Feature-Verhältnis, was jeder auch etwas anders gewichtet, speziell unter Linux.,

Meine zwei RTX 5080 ( gekauft je um die 1k€ wo es sie noch unter 1000€ gab) laufen unter 4k 120hz / 144hz mit max 225W mit RT ( ( UV+ OC, meist deutlich darunter ohne RT)
Was Du "jeder irrt sich" nennst, ist aber Real und eben kein Irrtum.
Und da rede ich von 5080, nicht mal 5070ti. Keine der 3 rx 9070xt's habe ich stabil unter 240W bekommen ohne zu viel Leistung zu verlieren und die hängen dann immernoch bis 40% mit UV der 5080 UV hinter her, denn nicht nur die RX Profitieren von UV .... Und während durch den Gddr7 die RTX Karten leise und kühl bleiben, sind die RX Karten wegen dem heißen Gddr 6 was die mind. Drehzahlen zum Kühlen dieser angeht deutlich im Nachteil.

Zudem kannst auch FSR4 bei 4k im Vergleich zu Dlss was Bildqualität und Stabilität angeht auch nicht so wirklich Vergleichen. Auf zB 42" ist FSR Q fast genauso verschwommen als wenn ich nativ FHD nehme, FSR4 -> wie mit 1440p nativ, schalte ich Schärfe dazu bekommst oft unruhiges Bild was bei Dlss bis Ausgeglichen oder selbst bei 4.5 Performance auf der Bildgröße bis 65" kein wirkliches Thema ist. Bei kleineren Zolldiagonalen ist das weniger eine Sache, trotzdem aber vorhanden. Zudem, alle meine aktuellen Games hat DLSS, bei der hälfte davon ist FSR noch nicht mal in Sicht....
 
  • Gefällt mir
Reaktionen: HansDetflefAndi
Vielen Dank für die Aktualisierung!

Grafikkartenmarkt ist derzeit echt öde, sobald die 6090 kommt könnt ihr mich wieder aufwecken schnarch
 
  • Gefällt mir
Reaktionen: hurga_gonzales
Extraportion25 schrieb:
Ich find die Preise auch viel zu heftig, bei der 9070xt zu 5070ti sind mal eben knapp bis 100W mehr für meist sogar weniger Leistung nicht Grade wenig
100W? Beim 3DCenter wird die Gaming-Leistungsaufnahme der 9070XT mit 302W angegeben, die der 5070ti mit 287W...
 
@Wolfgang Wie viele Stunden Arbeit fliessen eigentlich in so ein Umfangreichen Benchmark test mit ein? Vielen Dank auf jedenfall!
 
SavageSkull schrieb:
Hier ist sogar fast die 9070XT so schnell wie die 4090.
Das ist halt Call of Duty und die seit Jahren bekannte, überproportionale Leistung von Radeon-Grafikkarten in Spielen dieser Serie.
 
Vielen Dank für den Test. Allerdings bin auch ich der Meinung, das 5070 und 5080 auf jedenfall mit reingehören.
 
Hallo!

Nur elf GPUs in einer einem Gaming-GPU Undex? Das ist leider viel zu wenig ( siehe Kommentare...) Trotzdem gut das es neben dem PCGH Graka-Index noch eine andere vertrauenswürdige und verläßliche Übersicht zur Orientierung gibt.
Vielen Dank für eure Arbeit und Mühe!
 
Vielen Dank für den umfangreichen Test. Das meiste davon finde ich wirklich super. :)
Für die zukünftigen Tests würde ich mir wünschen, dass ihr euch bei der Auswahl der Grafiksettings und Upscalingpresets noch einmal Gedanken macht wie sinnvoll die erzielten Ergebnisse für die jeweiligen Nutzer der Grafikkarten sind und ob es unbedingt immer (fast) maximal aufgedrehte Settings sein müssen.
Ein Extrembeispiel finde ich z.B. das hier:
1778074169611.png

Dieser Benchmark ist außer für RTX 4090 / 5090 Besitzer weitestgehend nutzlos, da wohl die wenigsten derart schnelle Shooter mit weniger als 60fps spielen wollen, mehr noch: Selbst die x90 Nutzer werden ihre Settings vermutlich soweit herunterschrauben, dass sie 100+ fps erreichen (die in diesem Luxussegment in schnellen Games heutzutage eigentlich absoluter Standard sein sollten).

Mein Vorschlag:
Wählt die Settings in den zu testenden Games im nächsten größeren Nachtest so, dass die schwächste Karte im Test mindestens 45fps erreicht. Dann liegen die "normalen" Mittel-Oberklassemodelle idr. grob im knapp dreistelligen Bereich und die Luxusmodelle nocheinmal eine Ecke darüber.
Das passt dann auch zur Realität wie die Grafiksettings in der Praxis meist eingestellt werden, denn 120/144hz Monitore sind nun bereits seit locker 10 Jahren absoluter Standard und mit weniger als 60fps dürften sich die wenigsten heutzutage noch zufrieden geben. Zumal FG als neue Technologie stabile (echte) mindestens 50+ FPS zwingend erfordert.
Sollte sich dabei herausstellen, dass mit soweit abgesenkten Settings die x90 Karten in ein CPU-Limit rennen, kann man diese Highend Modelle ja noch einmal einzeln kurz in ein bis zwei höheren Grafikpresets testen um zu zeigen, welche FPS damit mit maximal aufgedrehten Settings möglich sind. (Das wäre eh generell interessant um den Performanceunterschied zwischen den verschiedenen Presets einschätzen zu können.)
 
  • Gefällt mir
Reaktionen: Pro_Bro

"Ein Low-End-GPU-Parcours folgt

Eine weitere wichtige Anmerkung gibt es noch: Bei einem GPU-Testparcours, der sowohl bei den schnellsten Flaggschiff-Modellen als auch bei Einsteiger-Produkten funktionieren muss, ist es unmöglich, Grafikeinstellungen zu finden, die praxisnah für alle Modelle sind. Stattdessen orientiert sich die Redaktion an den schnelleren Modellen, die nicht nur häufiger in der Community vertreten sind, sondern darüber hinaus auch schwerer auszulasten sind. Das hat zur Folge, dass vor allem die langsameren Modelle oft mit Grafikeinstellungen getestet werden, die für diese Modelle nicht praxisnah sind. Die Frameraten sind entsprechend niedrig. Das gilt es zu bedenken. In Kürze plant ComputerBase mit einem weiteren Artikel, der sich auf Einsteiger-Grafikkarten konzentriert. In diesem werden dann auch die Grafikeinstellungen angepasst."

@Wolfgang: Top! Top! TOP! Ganz großes Dankeschön!

Dann hören endlich immer die selben Fragen auf, welche GPU für XY Spiel für 60 FPS in Grafikvoreinstellung / Presets XY!

Bitte mit VRAM vs VRAM ... und Bestenfalls ein paar Generationen älter auch mit dabei (bis 2016 release date der GPUs wäre geil ~ dann gibt es auch direkt eine Aufrüstungsgrundlage / Empfehlungsmöglichkeit für die Mehrheit der Durchschnittsanwender).

Ansonsten ganz Toller Artikel, sehr gute Spielauswahl (für jeden Teilbereich was dabei von guter Skalierung bis grottiger, ältere Referenzspiele, neue Spiele mit dem aktuellen größten Interesse)!
 
Testergebnisse ohne DLSS sind völlig irrelevant. 5070ti mit DLSS 4.5 schiebt bei mir jedes Game über das Monitorlimit (5120x2160 165FPS) in bester Qualität.
Höre ich Fakeframes? gähn
Ohne DLSS iwas zu testen, nur um AMD iwie gleichwertig aussehen zu lassen..... ist albern.
AMD war es nie und ist es immer noch nicht.... .
 
EmmanuelMar schrieb:
Ich habe zwei RX 9070XT, eine für 634 Euro und eine für 750 Euro.


Wenn ich jetzt beide GPUs auf dem Gebrauchtmarkt verkaufen möchte, erziele ich einen höheren Preis, und es ist die günstigste Option, um bei 2160p/1440p ins Gaming einzusteigen, wenn man zwei Computer betreiben möchte.
Die 9070XT gibt es doch neu bereits ab 630€, wieso solltest du einen höheren Preis bekommen?
 
  • Gefällt mir
Reaktionen: incurable und Pro_Bro
Die Idee eines low end Testparcours finde ich sehr sehr gut!
 
HansDetflefAndi schrieb:
Testergebnisse ohne DLSS sind völlig irrelevant. 5070ti mit DLSS 4.5 schiebt bei mir jedes Game über das Monitorlimit (5120x2160 165FPS) in bester Qualität.
Höre ich Fakeframes? gähn
Ohne DLSS iwas zu testen, nur um AMD iwie gleichwertig aussehen zu lassen..... ist albern.
AMD war es nie und ist es immer noch nicht.... .
AMD <3 ist immer.....@Wolfgang schöner Test.
 
Jan schrieb:
Und bei XeSS kommt kein Hinweis, nur wenn es kein XeSS gibt und Arc auch FSR 3.1 nutzt - und den Nachweis, dass das Unterlegen ist, haben x Artikel im Q1 geliefert, würde ich sagen.
In diesen x Berichten wurde aber auch jedes Mal erwähnt, dass Xess - wenn auch besser als FSR3.1 - immer noch deutlich schlechter als FSR4 und DLSS4 ist, und daher, anders als FSR4 und DLSS4, immer im höchstmöglichen Preset getestet wurde, um das Bild-Performance-Verhältnis halbwegs fair zu berücksichtigen. Ich meine mich stört das nicht. Mich wundert es nur, dass Xess jetzt auf eine Stufe mit FSR4 und DLSS4 gestellt wird.

Im Übrigen fehlt der Hinweis der schlechten Bildqualität bei Arc auch wenn FSR3.1 verwendet wurde. Zumindest bei Requiem und Pragmata.
 
  • Gefällt mir
Reaktionen: eXe777, incurable, Pro_Bro und 2 andere
Sapphire Forum
Zurück
Oben