Test Grafikkarten 2022 im Test: AMD Radeon RX und Nvidia GeForce RTX im Benchmark

Schön zu sehen, wie die Karten altern. Vor allem, dass das anfängliche Geheule über die RT-Performance bei AMD mal wieder umsonst war.

Natürlich ist der erste Anlauf nicht perfekt, aber mit reifen Treibern und Spielen, kann man damit eben schon wunderbar auch unter RT spielen. Mit dem grossen Speicher altern die AMDs sehr gut.

Erstaunlich finde ich die Aussagen, dass die 3080er "zu wenig" Speicher haben. Das sieht man in den Benches nicht, auch nicht bei den Perzentilen - Schlecht programmierte Einzelspiele ausgenommen. In 4k legt sie ja sogar gegenüber den AMDs zu relativ.
NVs Speichermanagement ist einfach gut, würde mir trotzdem wünschen, dass so Karten wie die 3070TI, die ja schon richtig Geld kosten, nicht mehr mit 8GB kommen, die 3080 gibt es ja jetzt mit 12GB, was wohl reichen wird.
 
@Lindar einfach nicht triggern lassen! Der/Die @Sultanrush hat in 1 Jahr über 710 Kommentare geschrieben, totaler Troll Account. Einfach ignorieren (ist ein super toller Button) 🙃
Ich empfinde es ähnlich, 60FPS + sollte man immer hinbekommen, egal ob Shooter oder Aufbauspiel.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Lamaan, Lindar und MP42
Vielen Dank für das dicke Update!
Konnte gerade eine 3060ti bestellen allerdings hängt die Bestellung in Bearbeitung und es tut sich nix :/
 
Zwirbelkatz schrieb:
Wer wirklich wollte, hat anfangs Karten bekommen; also vor so ca. 1,5 Jahren. Was ich dir ebenfalls zutraue. Andererseits hat sich der Markt und das allgemeine Bewusstsein darum durchaus gewandelt und es dürfte insgesamt noch schwerer geworden sein.
Letztlich gehts um deine Finanzen. Einer spielt im Sommer, ein Anderer nicht etc. ...

Lovelace und Co. bringen sicherlich noch mehr Chaos in die Hütte. Stromverbrauch und Kosten dürften abermals steigen.

Jein - Da hatte ich eine 2080 ti - Da wollte ich schlicht nicht.

Dann war die 2080 ti weg und da fing der elendige Weg an.

Finanzen sind kein Problem. Aber der Wille war nicht da, einfach 1500eur für eine Grafikkarte auszugeben.
Hatte oft die Chance eine 3090 FE bei NBB zu kaufen und dachte damals 1550eur..Neee. Heute würde ich sie direkt kaufen - Einfach Ruhe haben, denn die 3090 kombiniert alle Stärken von AMD/NV mit Leistung, Features und VRAM.

Sollte Crypto hier nur auf Support stehen und über die nächsten Monate hochpushen werden auch die GPU Preise nicht besser, eher schlechter.
Fällt der Preis weiter, werden sich GPUs auch erholen mMn. Bin gespannt.
 
Super Test, der alle glücklich macht. Die ersten Seiten dieses Threats besteht auf den ersten Blick zu 80% aus "da habe ich ja mit meiner Karte alles richtig gemacht", "deshalb bleib ich bei Nvidia/AMD" - jeder sieht sich bestätigt mit seiner Entscheidung. Ist doch schön. ^^
Ah - und dann gibt's noch 10% "wenn es bezahlbare Grafikarten gibt, lese ich den Artikel komplett".

So, nun habe ich euch 13 Seiten Thread gespart.
Tatsächlich finde ich den Test interessant, weil man sieht wie sich die Treiber seit Release entwickelt haben und man muss sich wohl gedanklich einfach von den Querelen der aktuellen Marktsituation lösen. Einfach die gebotene Leistung der Karten in Relation zu den aktuellen Preisen betrachten.
Ich glaube man muss sich auch bewusst machen wie man zur Notwendigkeit von Raytracing und UHD steht.

Abseits von Raytracing und der Nutzung von UHD hat sich nach meinem Empfinden die letzten Jahre nicht viel getan, was Hardwareanforderungen von Spielen angeht. Auf WQHD und ohne Raytracing sehen für mich die Spiele in 2022 nicht so viel anders aus als 2015. Da war der Sprung von 2008 nach 2015 wohl deutlich größer. Und auch von 2001 nach 2008.

Raytracing befindet nach meinem Empfinden noch immer in den Kinderschuhen und ich denke in 2-3 Grafikkarten-Generationen wird man es nicht mehr so als "FPS-Killer" einordnen müssen, auch die Anzahl die Spiele die es vernünftig eingebunden haben wird ja dann höher sein.

Ich persönlich bin mit meiner 1070ti noch glücklich, ich will aber auch keinem der 1000-4000€ für sein Hobby übrig hat die Sinnhaftigkeit seiner neuen GPU ausreden. Man muss nur wissen ob man UHD und Raytracing jetzt gerade braucht. Und ich such mir die Spiele primär danach aus, ob mir Gameplay und/oder Story gefallen. Die Zeiten in denen ich unbedingt Crysis haben wollte, weil meine Hardware es konnte, sind vorbei. ^^
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Jan
Sultanrush schrieb:
Was ist den ein CB Pro User? Was bekommt man da?
Wieso sollte sowas hinter einer Paywall sein? Es ist ein Computerforum und sowas gehört nun mal zu so einem Forum.
Warum sollten nicht bestimmte Sachen, hinter einer Paywall sein? Aber ich denke mal du trollst gerne. Über 700 Beiträge in so kurzer Zeit, dazu immer provozierend. Woher hast du die Zeit?
 
  • Gefällt mir
Reaktionen: Zwirbelkatz
Hier wurde ja unter anderem die Spiele-Auswahl kritisiert, da kann ich jetzt erstmal nichts Schlechtes dran erkennen. Wichtig ist meines Erachtens immer, das möglichst viele unterschiedliche Engines zum Einsatz kommen und natürlich die Wichtigsten dabei sind. Habe das nicht im Detail überprüft, aber das scheint so hinzukommen.

Was ich persönlich nicht verstehen kann, hier und in anderen Threads aber sicher auch schon Thema war, ist die Wahl des maximalsten Presets. Ich verstehe das nicht - so spielt doch die Masse nicht?
Ja, hier sind viele Enthusiasten, aber maximale Details (bei hohen Auflösungen), wirklich? Klar, Konsolenqualität ist meines Wissens nach oft mittlere bis teilweise hohe Details. Am PC kann es schon gerne alles hoch sein. Am am sinnvollsten ist ja grundsätzlich einmal bei einem neuen Spiel zu testen, welche Setting was optisch bewirkt und wieviel Leistung benötigt. Hier gibt es ja beispielsweise pro Spiel von Nvidia oder Digital Foundry immer wieder best practises. Das Ergebnis ist dann immernoch eine sehr gute Optik (über Konsolenqualität) bei gleichzeitig deutlich mehr fps als einfach den Regler hochzuschrauben bzw. ein sehr hohes Preset zu nutzen.

Mir ist aber natürlich klar, dass sowas schlecht vergleichbar ist bzw. es verklomplizieren würde. Aber ich würde es bevorzugen, wenn statt Ultra / Alptraum -> Hoch oder von mir aus noch Sehr Hoch benutzt wird (bzw. eben die vorletzte Preset-Stufe im Spiel).

Das würde das VRAM Thema natürlich weniger schlimm machen (wurde hier schon gesagt). Zudem würde es das CPU-/Ram-Limit positiv beeinflussen bzw. weiter nach hinten verschieben. Beispiel FC6: in einer belebten Stadt hat man mehrere fps mehr, wenn man die Details um ein Preset reduziert (natürlich kann ich ein GPU-Limit ausschließen bzw. habe die Auflösung entsprechend reduziert um das sicherzustellen -> GPU-Load unter 70%). Getestet mit einem 5800H und 3200 CL20 (nicht jeder hat ja einen 5900X wie ich im Desktop mit 3600 CL16).
 
Zuletzt bearbeitet:
Lamaan schrieb:
Mich stört bei DLSS das es in allen spielen außer Einem Artefakte im Zentrum des Bildes gibt, von besser als Nativ kann man da meiner Meinung nach überhaupt nicht sprechen.
Auch werden auf Grund der Änderungem am LOD bei entfernteren Objekten einfach mal manche Objekte gar nicht gerendert.

Ich kann FSR meist nicht vom normalen Bild unterscheiden, schon gar nicht in Bewegtbildern und wenn, dann wäre es mir lieber als Artefakte in dem Bild mit den toll rekonstruierten Rändern und den Löchern in der Darstellung.
Ich glaube DLSS kann noch sehr gut werden, aber noch ist es das nicht.

Dazu sollte man wissen, das FSR in allen Vulkangames läuft, also eine viel größere Verbreitung hat.
Naja, kann ich nicht wirklich bestätigen. Habe seit gestern eine 6800XT, da ich die durch Glück sogar noch unter UVP bekommen habe. Aber der Unterschied zu DLSS ist schon deutlich, DLSS liefert schon wesentlich bessere Ergbnisse ab. Das ist mir sofort ins Auge gefallen. Aber das heißt ja nichts. Was nicht ist kann ja noch werden.
 
Caramelito schrieb:
Die 6900 ist aktuell auch mein Favorit ehrlich gesagt. RT ist mir ziemlich egal (auch im Vorzeige Titel Guardians of the galaxy, spiele ich ohne).
Ich spiele Guardians of the Galaxy mit meiner 6900XT mit RT on auf 4k. Habe die Renderleistung auf 90% gesetzt. Macht in der Bildqualität kaum einen Unterschied, man hat RT Effekte und es läuft flüssig.

Wer nach Preis-Leistung kauft, kauft AMD. Die nVidia-Karten sind zu teuer für das, was sie bieten und dazu noch VRAM-Krüppel.
 
  • Gefällt mir
Reaktionen: MegaDriver und Aljonator
Caramelito schrieb:
Jop nur sind 1060 und 580 schon sehr alt. So lange behalte ich die Grafikkarte eher nicht.
Was mich hier beschäftigt ist das schlechte Vram Mgmt von RX. Siehe Test hier, wo mal einfach die 12gb der 6700er nicht reichen zB.
Bezüglich des V-RAM- Managements:
User von Nvidia haben sich zu Zeiten des Releases des letzten Dooms auch immer belustigt darüber gezeigt, dass ihre Karten gut funktionieren, trotz des mangels an V-Ram,
z.B. der 970 GTX.
Dann kam, eben in Doom, raus, dass Nvidia einfach einige Texturen nicht lädt, bzw. die Engine in Verbindung mit dem Nvidia- Treiber. Das war damals in dieser Art neu und ist erst spät aufgefallen.
Ich vermute nun ähnliches, das wird der ganze Trick sein. Einige Texturen werden nicht geladen, nun außerhalb des Sichtfeldes oder in einer kaum zu unterscheidenden Qualität.
Vlt. wäre im Grenzbereich bei V-Ram-Mangel ein Bildvergleich zwischen AMD und Nvidia eine gute Idee.

Ich könnte mir vorstellen, dass die Texturen bei Nvidia etwas abfallen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MegaDriver und loser
Zwirbelkatz schrieb:
Zu der Fine-Wine Geschichte:
Die RX580 wird hier mit rund 10% Vorsprung zur GTX1060 gemessen. Das Verhältnis war bei Release der Probanden umgekehrt und deshalb wurde von vielen die 1060 empfohlen. Der Grund war die Behauptung, mehr als 6GB würde man niemals brauchen und dass sie zum damaligen, aktuellen Zeitpunkt schneller war. (Ein Test ist aber eine Momentaufnahme und keine Prognose)

Das Verhältnis war zu Release (also 9 Monate nach der 1060) gar nicht umgekehrt. Laut CB-Test hatte die RX580 ungefähr die gleiche FPS und leicht bessere Frametimes gehabt. Das war auch nicht der Grund, wieso die Nvidia empfohlen wurde. Meine 1060 habe ich kurz nach Erscheinen gekauft und da war der Gegner noch die RX480. Die war jedoch ca. 5 % langsamer und hat trotzdem mehr verbraucht. Eine RX580 hätte zu diesem Zeitpunkt an der Empfehlung wohl nichts geändert. Die wäre zwar 1 % schneller aber mit 69 % höherer Leistungsaufnahme fällt mir die Entscheidung einfach.

Es ist auch nicht alles immer auf den VRAM zurückzuführen. Z. B. die 2060 6GB hat ihren Vorsprung gegenüber der RX580 leicht und gegenüber der 1060 6GB deutlich ausgebaut. Während die Vega 64 8GB damals noch einen geringen Vorsprung hatte, haben wir inzwischen Gleichstand.
 
Zuletzt bearbeitet:
Caramelito schrieb:
Klar 6900xt wenn RT keine allzugroße Rolle spielt
Würde ich auch so sagen. Sie hat die größte rohleistung der genannten Karten, kostet weniger als die Grünen und ist in der Lage, so ziemlich alles nativ mit top Performance darzustellen, so wird dlss oder FSR weniger Relevanz. Natürlich ist dlss eine tolle Sache, aber ich würde nativ immer vorziehen, aber ich bin auch kein RT Fan, da musst du gucken wie wichtig dir das ist.
 
  • Gefällt mir
Reaktionen: MegaDriver und Schinken42
Wolfgang schrieb:
(...)

Ja, es sind schon eine ganze Menge Daten, dass ist schlussendlich auch der Grund, warum wir den Testparcours immer mit einem separaten Artikel einführen. Das nun auch noch in Kombination mit einer neuen Grafikkarte wäre sicher schon super heftig. Aber es ist eben nicht ganz einfach, so viele Daten sinnvoll aufzubereiten. Wir versuchen es mit Tabellen und Erklärungen, doch natürlich gibt es da Limitierungen...

(...)
Logisch, mal gelingt das besser, mal schlechter. Wobei das subjektiv ist, auch beim Schreibstil gibt es Geschmäcker und dieser Text hat meinen eben nicht getroffen, ist ja kein Beinbruch :).
Meistens hab ich an euren Texten auch wenig auszusetzen,also alles Kritik auf hohem Niveau.
 
Gerithos schrieb:
Würde ich auch so sagen. Sie hat die größte rohleistung der genannten Karten, kostet weniger als die Grünen und ist in der Lage, so ziemlich alles nativ mit top Performance darzustellen, so wird dlss oder FSR weniger Relevanz.
Also je nach Spiel, z.B GoW finde ich AMDs skalierungstechnik sogar sehr gut.
 
piccolo85 schrieb:
(...) Ich vermisse aber nichts mehr, seitdem ich den Limiter benutze. Bis auf die Möglichkeit es über das Overlay zu nutzen, das ist bei NVIDIA echt ein Krampf... Wenn man von AMD kommt denkt man sich zuerst: "Das kann nicht euer Ernst sein...".
Das war letztes Jahr beim Wechsel ein richtiger Wow-Effekt für mich. Diese Overlay Funktion begeistert mich immernoch. Einfach fast jede Treibereinstellung in Echtzeit einstellen und Auswirkungen beobachten.
Keine Ahnung warum das nicht mehr herausgestellt wird, sowohl von Seiten wie CB als auch AMD. Dann würde NV sicher bald nachziehen (ist ja kein Hexenwerk, das kriegen die schon hin wenn sie wollen) und wir hätten alle was davon.
Nebenbei könnte es das Treiberimage ja gebrauchen bei dem unbegründet schlechten Ruf.
 
Gerithos schrieb:
Auf einmal so stark? Die war schon immer sau stark, seit release. Und ja, deine CPU kommt da bei weitem nicht hinterher.
Was für eine CPU würdest du mir denn Empfehlen ?

oder soll ich lieber auf eine neue Generation warten ?
 
NguyenV3 schrieb:
Meine 1060 habe ich kurz nach Erscheinen gekauft und da war der Gegner noch die RX480.
Das habe ich dann wohl mit der 480 durcheinander gebracht. Auf alle Fälle lag "die RX" erst hinten, nun liegt sie vorne. (Jeweils marginal, versteht sich) Den Unterschied zwischen 480 und 580 nicht zu ziehen, wäre dabei natürlich unfair.
Allem voran war der Stromverbrauch ein Argument und das P/Watt-Verhältnis der 580 war eher schlechter, als das der 480. Wer sich die Mühe machte, die Spannung anzupassen, konnte das Verhältnis deutlich positiv beeinflussen. Viele wollten das allerdings damals nicht.

NguyenV3 schrieb:
Es ist auch nicht alles immer auf den VRAM zurückzuführen.
Ein großer Teil dürfte auf die lange Laufzeit von RDNA zurückzuführen sein.
 
@Wolfgang
Kann es sein dass bei den avg fps ein fehler passiert ist? Oder lese ich die Daten einfach falsch?

RTX 3080: FHD: 80.5, WQHD: 80.7, UHD: 81.9

RX 6800 XT: FHD: 85.2, WQHD: 83.8, UHD: 81.3
 
Lamaan schrieb:
Bezüglich des V-RAM- Managements:

Dann kam, eben in Doom, raus, dass Nvidia einfach einige Texturen nicht lädt, bzw. die Engine in Verbindung mit dem Nvidia- Treiber. Das war damals in dieser Art neu und ist erst spät aufgefallen.
Ich vermute nun ähnliches, das wird der ganze Trick sein. Einige Texturen werden nicht geladen nun außerhalb des Sichtfeldes oder in einer kaum zu unterscheidenden Qualität.
Vlt. wäre im Grenzbereich bei V-Ram-Mangel ein Bildvergleich zwischen AMD und Nvidia eine gute Idee.

Ich könnte mir vorstellen, dass die Texturen bei Nvidia etwas abfallen.

Kann natürlich sein - Aber wenns div. Redaktionen nicht auffällt und es wirklich eine Textur in der hintersten Ecke ist, dann ist das doch ein guter Ansatz ^^
 
Zurück
Oben