Test Gaming-Grafikkarten 2026 im Test: GeForce-, Radeon- & Arc-Benchmarks im neuen Testparcours

Extraportion25 schrieb:
Wie ich geschrieben habe betrifft P/L NUR den Neukauf und die Rohdaten, nicht aber das Langzeit und Feature-Verhältnis, was jeder auch etwas anders gewichtet, speziell unter Linux.,

Meine zwei RTX 5080 ( gekauft je um die 1k€ wo es sie noch unter 1000€ gab) laufen unter 4k 120hz / 144hz mit max 225W mit RT ( ( UV+ OC, meist deutlich darunter ohne RT)
Was Du "jeder irrt sich" nennst, ist aber Real und eben kein Irrtum.
Und da rede ich von 5080, nicht mal 5070ti. Keine der 3 rx 9070xt's habe ich stabil unter 240W bekommen ohne zu viel Leistung zu verlieren und die hängen dann immernoch bis 40% mit UV der 5080 UV hinter her, denn nicht nur die RX Profitieren von UV .... Und während durch den Gddr7 die RTX Karten leise und kühl bleiben, sind die RX Karten wegen dem heißen Gddr 6 was die mind. Drehzahlen zum Kühlen dieser angeht deutlich im Nachteil.

Zudem kannst auch FSR4 bei 4k im Vergleich zu Dlss was Bildqualität und Stabilität angeht auch nicht so wirklich Vergleichen. Auf zB 42" ist FSR Q fast genauso verschwommen als wenn ich nativ FHD nehme, FSR4 -> wie mit 1440p nativ, schalte ich Schärfe dazu bekommst oft unruhiges Bild was bei Dlss bis Ausgeglichen oder selbst bei 4.5 Performance auf der Bildgröße bis 65" kein wirkliches Thema ist. Bei kleineren Zolldiagonalen ist das weniger eine Sache, trotzdem aber vorhanden. Zudem, alle meine aktuellen Games hat DLSS, bei der hälfte davon ist FSR noch nicht mal in Sicht....
„Zwei RTX 5080 für 1050 Euro neu zu bekommen“.

Die einzige Möglichkeit, diesen Preis zu erzielen, ist die Founder Edition, und dabei handelt es sich um einen äußerst begrenzten Vorrat dieser GPU direkt von Nvidia.

Das ist nicht die Regel, sondern eine Ausnahme; die meisten Käufer einer RTX 5080 zahlen ab 1200 Euro.

Wenn wir uns die Qualität der Hardware einer GPU selbst ansehen und uns anschauen, was diese GPUs elektronisch und im Leiterplattendesign zu bieten haben, werden wir hier einige Überraschungen erleben.

An erster Stelle steht die Arbeit, die jedes Unternehmen (AMD/Nvidia) leistet, und die Kontrolle, die es über die GPU-Hersteller oder AIBs ausübt.

Im Falle von Nvidia unterliegen nur die GPUs der Founders Edition einer Qualitätskontrolle; die Hersteller bzw. AIBs haben völlige Freiheit bei der elektronischen Bestückung und dem PCB-Design. Dazu gehört die Verwendung der billigsten auf dem Markt erhältlichen Komponenten wie Kondensatoren, Widerstände, Spannungsregler, Lastausgleichswiderstände und Induktivitäten sowie die Verkleinerung der Leiterplatte durch das Weglassen von Leiterbahnen und die Reduzierung des PCI-Steckplatzes von x16 auf x8 usw.





Bei Nvidia findet man GPUs, deren elektronische Komponenten und deren Design von minderwertiger chinesischer Qualität sind; sie enthalten keine japanischen Kondensatoren und keine teuren Spannungsregler – es wird an Komponenten gespart.



Im Fall von AMD gibt es für GPU-Assembler (AIBs) eine Mindestqualitätskontrolle, die niemals unterschritten werden darf und von AMD selbst vorgeschrieben wird. Dies bedeutet, dass der Assembler niemals massiv Profit machen kann, indem er GPUs von sehr schlechter elektronischer Qualität auf Kosten des eigenen Markenimages von AMD ausliefert.

Zitat des AIB-Leiters von Saphire: „AMD lässt uns bei der von uns gelieferten Hardware keine verrückten Dinge anstellen; tatsächlich betragen die Leistungsunterschiede zwischen den verschiedenen Modellen unserer GPU-Produktpalette nur 1 %.“

Es gibt mehrere Websites, auf denen defekte RTX 5090 für 1.500 Euro verkauft werden, wobei weder bekannt ist, um welche Schäden es sich handelt, noch ob sie reparierbar sind oder nicht, noch wie hoch die Reparaturkosten wären.

Ich möchte daran erinnern, dass diese GPUs vor 14 Monaten auf den Markt kamen.

Eine RX 9070XT mit 300 W auf 240 W herunterzutakten … macht das in irgendeinem Gehirn überhaupt Sinn? Dafür kauft man sich doch eine RX 9070 für 500 Euro.

Wer eine GPU für 1440p oder 2160p kauft, weiß schon längst, dass seine jährliche Stromrechnung steigen wird, und das umso mehr mit Raytracing und Pathtracing.

GDDR6-VRAM ist der Speicher, den sogar die RTX 4090 verwendet. Er weist keinerlei Bandbreitenprobleme mit früheren und neueren GPU-Generationen auf. Der einzige Nachteil ist, dass er mehr Strom verbraucht und mehr Wärme erzeugt; außerdem ist er günstiger und leichter erhältlich als GDDR7.

Der einzige Nachteil ist die Verwendung von Optiscaler für ältere Spiele, die kein FSR 3.1 unterstützen, auf den RX 9000-Modellen.



Bei den Vorgängerserien RX 6000 und 7000 bleibt nur die Verwendung von Optiscaler oder das Spielen in nativer Auflösung, um FSR 4.0 INT 8 nutzen zu können.



Die Qualität von FSR 4.1 übertrifft, wie bereits in den Vergleichen zu sehen ist, derzeit das aktuelle DLSS 4, das in Spielen für die RTX-Serien 20/30 vorkonfiguriert ist. FSR 4.1 ist deutlich schärfer als dieses und kommt DLSS 4.5 näher.

Derzeit gibt es über 200 Spiele, die FSR 4 unterstützen.



Die neuen Xbox-/Play6-Spielkonsolen basieren auf einer angepassten RDNA 5-Architektur und werden zweifellos Varianten des aktuellen FSR 4-Scalers bzw. FSR 5 verwenden. Man kann fast schon offiziell sagen, dass die RX 9000/10000 weiterhin den aktuellen FSR4-Scaler und dessen Weiterentwicklungen nutzen werden, da beide GPUs auf Hardware-Ebene mit FP8 ausgestattet sind – eine Funktion, über die die RX 6000/7000 nicht verfügen und die deren Leistung deutlich einschränkt.
 
  • Gefällt mir
Reaktionen: angHell
EmmanuelMar schrieb:
Eine RX 9070XT mit 300 W auf 240 W herunterzutakten … macht das in irgendeinem Gehirn überhaupt Sinn? Dafür kauft man sich doch eine RX 9070 für 500 Euro.
Ich erklär dir das gerne. Der Preisunterschied ist sehr gering mit ~50€ als ich im März 26 zuschlug, so dass es keinen Sinn ergeben hätte die überteuerte 9070 zu erwerben.

Zur Effizienz: Die 9070 XT ist stock nicht effizient und auch nicht viel schneller als ne 9070, dafür ballert sie aber ~90 Watt mehr raus. Das sollte man abstellen.

Meine 9070 XT läuft mit -30%PL, -500mhz Taktoffset (mindert die Wattspitzen massiv und das sinnlose Hochdrehenwollen), und leichtes UV.

Ergebnis: Mit 213 Watt braucht sie weniger als ne Stock 9070, aber leistet dafür immernoch mehr. Das ist stark und äußerst effizient.
 
  • Gefällt mir
Reaktionen: Xalloc, Extraportion25, Alphanerd und eine weitere Person
FrittiDeluxe schrieb:
Ich könnte mir auch eine 5090 leisten
Wenn es Dir finanziell nicht weh tut, ist es wahrscheinlich wirtschaftlich sinnvoll, bei der nächsten günstigen 5090 zuzugreifen.

Kannst sie ja im Rechner immer noch in Richtung 9070 XT Leistung einbremsen, wenn Dir die Bildrate sonst zu hoch liegt. 😜
 
incurable schrieb:
Wenn es Dir finanziell nicht weh tut, ist es wahrscheinlich wirtschaftlich sinnvoll, bei der nächsten günstigen 5090 zuzugreifen.
Stimme ich dir an sich zu, dann bräuchte ich ggf. aber noch mehr Dinge wie z.B. ein neues Netzteil.
Aber mal davon abgesehen: Nur weil ich es mir leisten kann, heißt ja nicht dass ich es muss😉
Da hab ich mir lieber ein neues E-Bike geholt, Geld für meine 2 Monate alte Tochter angelegt usw.
Erschien mir sinnvoller als für die wenigen Stunden Zocken😄
 
  • Gefällt mir
Reaktionen: EmmanuelMar und incurable
incurable schrieb:
Ich fände es nach wie vor einfacher, wenn statt der nebulösen Namen der Unterabtaster zumindest in der Tabelle, gern aber auch bei den Einzeltests, die jeweiligen Berechnungs- und Ausgabeauflösungen angegeben wären.
FSR und DLSS tasten nicht weniger ab, sie tasten mehr ab als native.
 
Wolfgang schrieb:
Darüber hinaus ist die RX 9070 generell eher unbeliebt
Das Argument mit der Leistung nahe zur RX 9070XT kann ich nachvollziehen, aber wenn man sich die Hardwareumfragen in der Community anschaut, ist die 9070 nicht unbeliebter als eine 9060XT oder RTX 4070 ;).
 
@incurable Doch, wegen dem Kamera-Jittering. Dadurch werden bei jedem Frame weitere Details abgetastet, die bei den vorhergehenden Frames u.U. entfallen sind.

Die sind ja nicht "alt", wenn die Details immer noch Teil des dargestellten Bilds sind.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77 und Melmoth
Blaze1987 schrieb:
Autsch. Die soll schön laut seit. 7.6 Sone sollen angeblich fast 70 db sein... 😁 😂

https://www.pcgameshardware.de/Rade...is-Gaming-Benchmark-Release-Review-1486284/5/
Ergänzung ()

Von der Front der R9700 kann ich berichten:

Ja, manchmal ist sie laut - aber in 95% der Zeit ist selbst bei intensiver llama.cpp-hip-Nutzung nicht zu hören. Ich habe keine Lüfter-Kurve angepasst oder sowas.

Ich kann aus der Praxis ausserdem berichten, das WENN sie laut wird, ich das Terminal-Fenster mit meinem llama-server-starter checken sollte, meistens stimmt dann was nicht :D

Edit: Threshold ist der Grund (Info: Dabei ist das Token-Kontext-Fenster auf einen bestimmten Wert gestellt wie z.b. 128k Token-Window, und Threshold = 0,5 oder 0,7 "bereinigt" dieses Fenster auf das notwendigste um arbeitsfähig zu bleiben und nicht überzulaufen bzw. neigen LLM's gegen Ende des Token-Fenster garbage zu produzieren)
 
Wolfgang schrieb:
Bei einem reinen Spiele-Benchmark-Test würde ich dir völlig recht geben.
Bei einem Grafikkarten-Test ist das denke ich aber kein Beinbruch. Die tatsächlich erreichten Frameraten sind bei diesen nicht so wichtig. Das ist ja auch kaum zu machen, weil Grafikkarten mit sehr unterschiedlichen Leistungen getestet werden. Zum Beispiel würde ich auf der RX 9070 XT in UHD wohl primär FSR Performance nutzen und nur selten FSR Quality.

Wichtiger sind die Abstände der Grafikkarten untereinander und das diese gut skalieren mit Auflösung und Spiel.
Verstehe ich und gehe auch mit, aber je nach Detailgrad können diese Abstände eben auch unterschiedlich ausfallen:
Musterbeispiel wären ja z.B. wieder die Einstiegs- und Mittelklassekarten mit wenig VRAM:
Die brechen bei maximal aufgedrehten Ultrasettings im Schnitt viel stärker gegenüber ansonsten ähnlich schnellen Modellen mit mehr VRAM ein, als wenn man (passend zur "Rohleistung") auf Mittel-Hoch testet.
Das vergrößert die Abstände der Grafikkarten untereinander "künstlich", denn wenn die Grafikkarten entsprechend ihrer Leistungsklasse mit "realistischen" Settings getestet werden würden, läuft auch der VRAM weniger über.
Da gibt es bestimmt auch noch andere Dinge/Settings die, wenn maximal auf Ultra aufgedreht, bei den kleineren, beschnittenen Karten für proportional deutlich stärkere Leistungsverluste sorgen als bei den voll(er) ausgebauten Highendmodellen.

Am besten wäre es sicherlich alle Karten in allen Auflösungen mit allen Grafikpresets einzeln durchzutesten, aber mir ist natürlich auch klar, dass das zeitlich einfach nicht möglich ist und immer ein Kompromiss gefunden werden muss.
Ich persönlich würde aber lieber gerne Diagramme sehen wo möglichst viele Einstiegs-, Mittelklasse- und Oberklassekarten spielbare FPS bei praxisnahen Settings zeigen (und dafür eben notfalls auch mal eine RTX 5090 mit X00fps auf einem für diese Karte unpassenden Mittelpreset darsteht), als Diagramme wie eben das Doom 4K Beispiel, wo nur noch die x90 Karten gut spielbare Frameraten zeigen.

Man muss das jetzt natürlich auch nicht "nach unten hin" untertreiben und alles im Low-Preset testen, nur weil eine Lowend Karten mit zuwenig VRAM selbst in FullHD starke Probleme hat, aber ein "High" Preset statt "Max/Epic/Ultra" wäre für mich schon ein besserer Kompromiss als aktuell.
 
@incurable Doch natürlich. Genau das macht der Algorithmus ja mit dem neuronalen Netz: Elemente erkennen, die an Ort und Stelle verblieben sind oder sich nur verschoben haben, aber sonst identisch aussehen.

Genau an dieser Stelle unterscheiden sich die Algorithmen in der Qualität. Und bei jeder Abtastung "erkennt" man mehr Details, die bei einem einfachen Renderdurchgang buchstäblich durch das Raster fallen.
 
Zuletzt bearbeitet:
Raten ist nicht Wissen, auch wenn das Raten in den vergangenen Jahren an Treffergenauigkeit zugelegt hat.
 
@incurable Da wird nichts geraten. Der Algorithmus ist deterministisch. Du hast eine völlig falsche Vorstellung und das passt in das alte Narrativ, dass AI Upscaling Verfahren Details erfinden würden.

Nein, tun sie nicht.

Es kann Artefakte geben, wenn der Algorithmus sich bewegende Objekte nicht korrekt erkennt (das berühmte Ghosting) oder den Hintergrund nicht sauber von dem sich wegbewegenden Objekt unterscheiden kann (Disocclusion), aber erfunden wird da grundsätzlich nichts.
 
  • Gefällt mir
Reaktionen: Quidproquo77
Also erstmal wie immer vielen dank für das Update. Sicher wurde es schon gefragt oder ich habe etwas überlesen, oder gar beides, aber was ist der Grund dafür, dass keine RTX 5080 in den Benches auftaucht?
Ergänzung ()

olEn schrieb:
Vielen Dank für die Aktualisierung!

Grafikkartenmarkt ist derzeit echt öde, sobald die 6090 kommt könnt ihr mich wieder aufwecken schnarch
Ende '27 :)
 
Leute echt mal, stellt Euch doch mal nicht an wie die ersten Menschen. Und das in einem Technikenthusiastenforum. ^^ Das ist der neue Parkour mit ner guten Auswahl an Grakas, schaut Euch halt den alten an oder die Rangliste und extrapoliert Eure eigene Graka, falls sie nicht aufgeführt ist. Ist doch echt nicht so schwer. :rolleyes:
 
  • Gefällt mir
Reaktionen: Grestorn und hurga_gonzales
meckswell schrieb:
Ich erklär dir das gerne. Der Preisunterschied ist sehr gering mit ~50€ als ich im März 26 zuschlug, so dass es keinen Sinn ergeben hätte die überteuerte 9070 zu erwerben.

Zur Effizienz: Die 9070 XT ist stock nicht effizient und auch nicht viel schneller als ne 9070, dafür ballert sie aber ~90 Watt mehr raus. Das sollte man abstellen.

Meine 9070 XT läuft mit -30%PL, -500mhz Taktoffset (mindert die Wattspitzen massiv und das sinnlose Hochdrehenwollen), und leichtes UV.

Ergebnis: Mit 213 Watt braucht sie weniger als ne Stock 9070, aber leistet dafür immernoch mehr. Das ist stark und äußerst effizient.
Der grundlegende Unterschied zwischen der RX 9070 (220 W) und der RX 9070XT (300 W) liegt bei 15 fps. Diese 15 fps mehr und die zusätzlichen 80 W sind notwendig, um eine Vielzahl von Spielen in 2160p zu rendern. Ohne diese 80 W wirst du nichts in 2160p spielen können.



Diese Konfiguration ist nur für 1440p geeignet. Im Grunde verwandelst du die RX 9070XT in eine RX 9070, wobei letztere zudem übertaktet werden kann, um die Leistung leicht zu steigern.

Ich besitze einen 32-Zoll-Monitor mit 2160p bei 240 Hz bzw. 1440p bei 1080p und 480 Hz.

Uns ist klar, dass ich mit dieser Konfiguration viele ressourcenintensive Spiele nicht in 2160p spielen kann.

Je höher die Bildschirmauflösung ist, desto mehr Energie benötigst du sowohl für den Monitor als auch für die CPU/GPU.

Eine Konfiguration von 280 W bis 300 W mit Unterspannung ist viel besser und bietet eine höhere Leistung als bei einer Einstellung von 300 W, und du kannst in vielen Spielen eine Auflösung von 2160p nutzen.

Die RX 9070 ist eine GPU, die 12 fps mehr Leistung liefert als die RTX 5070; im Vergleich zur RTX 5070 ist sie nicht überteuert, außerdem lässt sich diese GPU übertakten.

Im Vergleich zur RX 9070XT kann man sie als überteuert betrachten.
 
Zuletzt bearbeitet:
Den Takt zu erhöhen, erhöht den Takt aber garnicht. Nur UV erhöht den Takt. Gleichzeitig spart UV nicht ein Watt ein. Um die Effizienz zu verbessern, ist PL senken, das wirkungsvollste. FPS-Limit kann auch sehr wirkungsvoll sein für die Effizienz.

Ich würde auch in UHD versuchen effizient zu sein. So 300 Watt allein für die Grafikkarte rauszublasen, des is net mein Ding. Aber jeder wie er mag, alles gut.
 
EmmanuelMar schrieb:
Ohne diese 80 W wirst du nichts in 2160p spielen können.
Das ist erwiesenermaßen falsch:
Um die Effizienz richtig zu pushen, bietet sich ein Power-Target von 80 Prozent – minus 20 Prozent – und Undervolting an. Die FPS sinken um nicht spürbare zwei Prozent, die Effizienz legt jedoch deutlich zu.
 
  • Gefällt mir
Reaktionen: meckswell
jErgebnis: Mit 213 Watt braucht sie weniger als ne Stock 9070, aber leistet dafür immernoch mehr. Das ist stark und äußerst effizient.

falsch in 2160p
 
Sapphire Forum
Zurück
Oben