Test Gaming-Grafikkarten 2026 im Test: GeForce-, Radeon- & Arc-Benchmarks im neuen Testparcours

MalWiederIch schrieb:
interessant wäre ja, ob sich (wie offensichtlich in anderen Fällen) auch hier etwas geändert hat.
Zwischen Karten verschiedener Generationen und Hersteller ändern sich die Abstände schonmal deutlich, klar.

Aber zwischen Karten derselben Generationen doch nur, wenn eine Karte in spezifischen Spielen auf ein Hardware-Bottleneck stößt...
Wenn du den alten und neuen Testparkours vergleichst sind da innerhalb einer Generation die Varianzen innerhalb ~4% trotz komplett anderem Testparkours.
 
  • Gefällt mir
Reaktionen: floTTes und N0Thing
@Wolfgang
In Kürze plant ComputerBase mit einem weiteren Artikel, der sich auf Einsteiger-Grafikkarten konzentriert. In diesem werden dann auch die Grafikeinstellungen angepasst.
Also ich würde mir an deiner Stelle die Arbeit sparen.
Damit ist niemandem geholfen ausser dass diese Grafikkarten nur die Preise künstlich hochhalten.

1. Wir sehen doch dass selbst die"Mitteklasse" GPUs ( > 400 € ) jetzt schon mit angepassten Grafikeinstellungen ( DLSS Performance ! ) in Spielen selten über die 60 AVG FPS bzw. 40 FPS P1 kommen.

2. Die Einsteiger-Grafikkarten sind vom P/L furchtbar und eigentlich nur noch für "Retro"-Spiele bzw. HTPC einsetzbar und selbst diese kleine Zielgruppe braucht sie nicht wirklich.
 
danyundsahne schrieb:
Das Flaggschiff von NV aus letzter Gen ist ja auch dabei. Fände ich nur fair.
Die 4090 kann aber im Gegensatz zur 7900 (GRE/XT/XTX) moderne Unterabtastungstechnologie und bekommt nicht praktisch durch die Bank den andersfarbigen Schummelbalken für mit erheblich schlechterer Bildqualität erkaufte Bildraten.
 
  • Gefällt mir
Reaktionen: Quidproquo77, Pro_Bro, NguyenV3 und eine weitere Person
Extraportion25 schrieb:
Wenn man wie immer nur die Rohen Leistungsdaten sieht und ins P/L Verhältnis ( bei Neukauf) setzt, steht die RX 9070xt ( die non xt noch besser ) gegenüber Nvidia natürlich sehr gut da.

Gerade für Gamer rentiert sich aber das Featureset, vor allem aber dessen Verbreitung und die Energieersparnis aber bei Nvidia.

Ich find die Preise auch viel zu heftig, bei der 9070xt zu 5070ti sind mal eben knapp bis 100W mehr für meist sogar weniger Leistung nicht Grade wenig ( inkl CPU die bei der Radeon meist auch etwas mehr zu Arbeiten hat, bei 5h am Tag und Vielgamer sind das im Jahr auch knapp 50€, wer sone Karte dann 3 Jahre oder mehr nutzt hat dann einen ganz anderen Preisstandpunkt ).
UV geht bei natürlich beiden, bei den RTX meist mehr und vor allem Stabil. Bei meinen Kids zB werkeln 3x 9070 xt's und bei keiner geht's ohne das sich die Treiber durch Fehler immer mal Zurücksetzen, selbst wenn man nur das Powerlimit runter nimmt.

Meine zwei RTX dagegen einmal eingestellt und nie wieder irgendwas gehabt.

Ja, der Aufpreis zur RTX tut erstmal weh, zieht man die Laufenden Kosten ( Strom ), die Features, deren Nutzungsmöglichkeiten und auch absolut nicht zu verachtenen Wiederverkaufswert aber mal Objektiv in den Mittelpunkt, stehen die RX 9000er dann nicht mehr so gut da. Da ist noch nicht mal Gddr 6 vs 7 inkludiert.

Jetzt könnte man noch Argumentieren das bei AMD die Treiber besser "Reifen" was Leistungs+ über Zeit angeht, anders rum betrachtet würde Nvidia dann aber von Anfang an die optimiertsten Treiber haben. Linux mal außen vor.
Ich habe zwei RX 9070XT, eine für 634 Euro und eine für 750 Euro.

Es ist die GPU mit dem besten Preis-Leistungs-Verhältnis dieser Generation auf dem Markt.

In den Adrenalin-Treibern habe ich im Wesentlichen die GPU-Leistung so eingestellt, dass sie zwischen 300 und 285 W verbraucht (Leistung/GPU-Leistungseinstellung).

Bei 2160p- und 1440p-Bildschirmen irrt sich jeder, der glaubt, mit Raytracing bei den genannten Bildschirmauflösungen unter 250 W oder weniger Stromverbrauch spielen zu können.

Um 200 Watt oder weniger zu verbrauchen, muss die Bildschirmauflösung 1080p betragen, und dafür sind diese GPUs viel zu leistungsstark.

Kauft euch eine günstigere Version.



Mit den Adrenalin-Treibern sind die beiden GPUs wirklich sehr stabil geworden.

Wir haben keine Abstürze aufgrund der Treiber, und das, obwohl wir in der Familie etwa 25 verschiedene Spiele spielen.

Wie ihr wisst, erkennt Adrenaline ein neues Spiel manchmal nicht, wenn es gestartet wird.

Die Lösung besteht darin, das Spiel zu schließen und es erneut über Adrenaline oder direkt über das Steam-Symbol zu öffnen; dort wird das Spiel automatisch konfiguriert, da es nun erkannt wird.




Wenn ich jetzt beide GPUs auf dem Gebrauchtmarkt verkaufen möchte, erziele ich einen höheren Preis, und es ist die günstigste Option, um bei 2160p/1440p ins Gaming einzusteigen, wenn man zwei Computer betreiben möchte.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: feris
incurable schrieb:
Die 4090 kann aber im Gegensatz zur 7900 (GRE/XT/XTX) moderne Unterabtastungstechnologie und bekommt nicht praktisch durch die Bank den andersfarbigen Schummelbalken für mit erheblich schlechterer Bildqualität erkaufte Bildraten.
Das hat doch damit überhaupt nichts zu tun :D Was quatscht du das jetzt mit Bildqualität schlecht....unmöglich.
 
  • Gefällt mir
Reaktionen: usopia, muvmend, eXe777 und eine weitere Person
Die 5070 Ti ist 10 bis 15% schneller im Raytracing. Doom mit FSR3.1 muss man ignorieren, da nicht vergleichbar. 250€ Kröten wäre mir das nicht wert.
Abgesehen von Doom macht Raytracing => 144 Hz Monitore überflüssig. Da habe ich lieber dreistellige fps als 50% weniger fps.
 
5090
5070 Ti
5060 Ti

4090
4070
4060

9070 XT
9060 XT

7800 XT
7600

Finde den Ausreißer?
(Ich verstehe, was das Testen für ein Aufwand ist, und ja, die Performance ist in etwa mit der 9070XT zu vergleichen. Dennoch ist es für die Vergleichbarkeit nie gut, wenn Vorgängermodelle gestrichen werden.)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Free Radical
Ok, umfangreicher Test.

Was mich stört ist, das ältere Upscalerversionen jetzt undifferenziert als schelchte Bildqualität herabgewürdigt werden!

Woher kommt diese Einschätzung?

Ob die Bildqualität schlecht ist, kann man nur im Vergleich zum Originalbild bewerten und nicht ahand der Versionsnzummern!

Spätestens ab FSR2 hab ich selber keine Probleme es in jedem Spiel, das sich auf 4k hochskalieren läßt anzuwenden und überaus zufrieden mit dem Resultat zu sein!

Man kann "veraltet" dazu anmerken, aber die Bewertung "schlecht" halte ich für übergeneralisiert und in der Präsentation fast schon toxisch!


Abseits davon:
Conan Exiles Enhanced hat ja gestern sein Steam-UE5 Update bekommen, kostenlos, wenn man das Spiel schon hatte.
Erster Eindruck war gut, aber ich spiel Conan Exiles höchstens kleckerweise, von daher hab ich keinen großen Erfahrungsschatz damit, mir ist nur aufgefallen, das bei allen Verbesserungen Conan in der Introsequenz jetzt eine Säufernase hat, was sein Image, einen Look für mich deutlich abwertet.
Lief aber soweit alles sehr flüssig in FSR 4k in der halben Stunde, die ich dafür aufgewendet habe.


PS: Settings waren auf Ultra und FSR auf ausgewogen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Andre83hro und danyundsahne
Ansich ein schöner Test und guter neuer Parcour. Ja es fehlen einige GPUs, aber das war in der Einleitung vom Test bereits erleutert worden. Finde ich OK. Zumal man ja wirklich nach und nach ein paar GPUs nachreichen kann. Immerhin ist das hier nur ein neuer Testparcour, kein neuer GPU-Release. Und ein Sommerloch das mit Artikeln gefüllt werden will kommt bestimmt ;)
 
@Wolfgang Danke für den aktualisierten Testparcours. Bei allen Spielen steht aber nur welche Qualitätsstufe von DLSS und FSR verwendet wurde. Was ist mit Intel GPUs? Wird da auch bei RDNA3 FSR3.1 verwendet? Wo bleibt dann der schlechte Bildqualitätshinweis?
 
  • Gefällt mir
Reaktionen: Andre83hro
Norebo schrieb:
Was mich stört ist, das ältere Upscalerversionen jetzt undifferenziert als schlechte Bildqualität herabgewürdigt werden!
Sehe ich ähnlich. Es wäre ja schon besser, wenn man schreiben würde "schlechtere Bildqualität" um zum Ausdruck zu bringen, dass die anderen Up-Scaller besser sind. Wenn etwas "schlechter" ist, ist es halt nur im Vergleich schlechter, aber kann immer noch gut sein und eben nicht generalisiert "schlecht"
 
  • Gefällt mir
Reaktionen: Norebo, eXe777, Andre83hro und 2 andere
Norebo schrieb:
Was mich stört ist, das ältere Upscalerversionen jetzt undifferenziert als schelchte Bildqualität herabgewürdigt werden!

Woher kommt diese Einschätzung?

Ob die Bildqualität schlecht ist, kann man nur im Vergleich zum Originalbild bewerten und nicht ahand der Versionsnzummern!

Spätestens ab FSR2 hab ich selber keine Probleme es in jedem Spiel, das sich auf 4k hochskalieren läßt anzuwenden und überaus zufrieden mit dem Resultat zu sein!

Man kann "veraltet" dazu anmerken, aber die Bewertung "schlecht" halte ich für übergeneralisiert und in der Präsentation fast schon toxisch!
Das sehe ich sogar sehr ähnlich.

Denn wenn ich FSR3.1 Quality z.B. in hohen Auflösungen nutze also sagen wir ab WQHD bis hin zu 4k, dann wird das Ergebnis z.B. auch mit steigender Auflösung besser (im Vergleich zum Originalbild "nativ" oder wenn ich nur in FHD spiele).

Und weiter: selbst wenn Spiele mit "DLSS/FSR Native" getestet werden, dann liegt die Bildqualität doch noch weniger auseinander, oder nicht? Das bedeutet dass "DLSS/FSR Native" eigentlich doch nicht wirklich sichtbar schlechter ist, als zum Beispiel komplett "nativ" (also ohne Upscaling) zu testen?
Daher finde ich es auch irreführend wenn CB bei Games in 4k und "DLSS/FSR Native" testet und dann "schlechte Bildqualität" bei FSR3.1 im Diagramm schreibt.

Umgekehrt die Frage auch an @CB. Würdet ihr auch "schlechte Bildqualität" schreiben, wenn ihr nur nativ, also ohne Upscaling testen würdet?
 
  • Gefällt mir
Reaktionen: Norebo, eXe777 und Andre83hro
Ich finde es absolut OK, dass der Aufwand in Grenzen gehalten werden muss.
5080 zu 5070TI ist nun wirklich nur ein Rechenexempel.
Ältere Architektur wie 4000er Serie ist wieder was anderes.

Sehr interessant war für mich der Vergleich 9070XT zu 5070TI.
In einer Zeit immer extremerer Preise absolut wichtig und auch interessant.

Danke!
 
zeedy schrieb:
Bei allen Spielen steht aber nur welche Qualitätsstufe von DLSS und FSR verwendet wurde. Was ist mit Intel GPUs? Wird da auch bei RDNA3 FSR3.1 verwendet?
Das kannst du im Detail dieser Tabelle entnehmen:

https://www.computerbase.de/artikel...097/#abschnitt_aktuelle_upscalingtechnologien

Und bei XeSS kommt kein Hinweis, nur wenn es kein XeSS gibt und Arc auch FSR 3.1 nutzt - und den Nachweis, dass das Unterlegen ist, haben x Artikel im Q1 geliefert, würde ich sagen.
 
  • Gefällt mir
Reaktionen: usopia, incurable und Return2Burn
Rukizz schrieb:
wow nivida wird langsamer.

noch ein jahr und die 9070xt ist schneller, als die 5070ti. zudem kostet sie min. 300€ weniger im Vergleich. (gigabyte gamin oc 630€ vs 990€)
Wird auch an den aktuelleren, performance hungrigeren DLSS Versionen liegen. Das wird auch der Grund sein, warum Nvidia die alten Karten noch damit versorgt. Spielt ihnen ja in die Karten, dass die alten Karten noch langsamer werden
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: feris
Ich bin momentan Wunschlos glücklich mit meinen Grafikkarten:
4090FE im großen PC, welche immer noch dicke reicht.
9070XT im zweiten PC, was für WQHD auch bei jedem Spiel reicht und unter Linux eine gute Figur macht.
9060XT in der DIY Steam Machine unter Bazzite am FullHD Fernseher top und dicke ausreichend.
"RX6300 mobile" im Steam Deck ist allerdings manchmal ein wenig mager auf der Brust, trotz nur 800p.

Ich würde mich aktuell eher über ein CPU+RAM Upgrade im großen System freuen, allerdings tut sich da zu wenig für das, was da aktuell monetär aufgerufen wird.
DLSS und FSR ist aktuell auf einer völlig ausreichenden Stufe um TAA komplett zu ersetzen. Da brauche ich dann keine Ultra DLSS 4.5 Settings mehr.
 
  • Gefällt mir
Reaktionen: muvmend, Melmoth und feris
jo0 schrieb:
Wird auch an den aktuelleren, performance hungrigen DLSS Versionen liegen. Das wird auch der Grund sein, warum NV die alten Karten noch damit versorgt. Spielt ihnen ja in die Karten, dass die alten Karten noch langsamer werden
Ich würde dir weitestgehens zustimmen.
Allerdings sehen wir ja gerade am Markt, dass Gamer keine Einflußgröße mehr sind.
 
@Wolfgang Hab ich das den Artikel richtig entnommen, das ihr bei Nvidia mit DLSS4.0 nicht mit 4.5 getestet habt? Könnte ich also davon ausgehen, das bei DLSS4.5 die Werte niedriger ausfallen, als hier im Test?
 
feris schrieb:
Allerdings sehen wir ja gerade am Markt, dass Gamer keine Einflußgröße mehr sind.
Das hält sie doch trotzdem nicht davon ab, das Meiste daraus zu ziehen
Und wer weiß, was die Zukunft bringt, vielleicht wird KI auch irgendwann nicht mehr Nvidias Zugpferd sein. Viele verschiedene Gründe kann es dafür geben. Zumindest hat man immernoch ein zweites Standbein.
 
zeedy schrieb:
@Wolfgang Danke für den aktualisierten Testparcours. Bei allen Spielen steht aber nur welche Qualitätsstufe von DLSS und FSR verwendet wurde. Was ist mit Intel GPUs? Wird da auch bei RDNA3 FSR3.1 verwendet? Wo bleibt dann der schlechte Bildqualitätshinweis?
Wie Jan schon richtig erwähnt hatte, findest du die Details zu XeSS auf Intel Arc auf der ersten Seite in der Upsampling-Tabelle :)
danyundsahne schrieb:
Das sehe ich sogar sehr ähnlich.

Denn wenn ich FSR3.1 Quality z.B. in hohen Auflösungen nutze also sagen wir ab WQHD bis hin zu 4k, dann wird das Ergebnis z.B. auch mit steigender Auflösung besser (im Vergleich zum Originalbild "nativ" oder wenn ich nur in FHD spiele).

Und weiter: selbst wenn Spiele mit "DLSS/FSR Native" getestet werden, dann liegt die Bildqualität doch noch weniger auseinander, oder nicht? Das bedeutet dass "DLSS/FSR Native" eigentlich doch nicht wirklich sichtbar schlechter ist, als zum Beispiel komplett "nativ" (also ohne Upscaling) zu testen?
Daher finde ich es auch irreführend wenn CB bei Games in 4k und "DLSS/FSR Native" testet und dann "schlechte Bildqualität" bei FSR3.1 im Diagramm schreibt.

Umgekehrt die Frage auch an @CB. Würdet ihr auch "schlechte Bildqualität" schreiben, wenn ihr nur nativ, also ohne Upscaling testen würdet?
Im Vergleich zu FSR 4, DLSS 4 und DLSS 4.5 hat FSR 3.1 einfach eine schlechte Bildqualität. Das haben wir in den letzten Monaten in wirklich zig Artikeln gezeigt und da kam auch wenig (gar kein) Widersprich zu in den Kommentaren.

Natürlich ist "schlechtere Bildqualität" immer korrekt im Vergleich zu anderen Upsampling-Technologien. Aber man kann sie auch durchaus auch gleich als schlecht bezeichnen. Das empfinde ich in wirklich allen Spielen, Auflösungen und Einstellungen so, wenn man zum Beispiel FSR 4 kennt. Einfach nur "schlechter" ist da einfach nicht gerechtfertigt.

Zu dem anderen Punkt: FSR 3.1 bezieht sich ja immer auf den Vergleich zu FSR 4.1 und DLSS 4, unabhängig von der Auflösung. Auch bei nativer Auflösung, also dem direkten Vergleich zwischen FSR 3.1 Native, FSR 4.1 Native und DLSS 4 Native, sieht FSR 3.1 schlecht aus. Und ja, auch oft schlechter als Nativ+TAA. Der Algorithmus hat einfach viele Probleme bei den Sachen, die in heutigen Spielen oft genutzt werden.

Wenn man mit FSR 3.1 zufrieden ist, ist das ja alles kein Problem. Aber es geht eben deutlich besser.
 
  • Gefällt mir
Reaktionen: usopia, Grestorn, Quidproquo77 und 3 andere
Sapphire Forum
Zurück
Oben