• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Fortnite-Benchmarks (2024): 28 GPUs von AMD, Intel & Nvidia in FHD, WQHD & UHD im Test

Sinatra81 schrieb:
Ein Spiel für 12jährige und hier wird wegen irgendwelchen Benchmarks rumgestritten. 🤦‍♂️
Ein Spiel für ab 12jährige

habs mal für dich gefixt und dich etwas von dem vorurteil befreit. 🤷‍♂️
 
  • Gefällt mir
Reaktionen: SweetOhm
Taxxor schrieb:
Natürlich verhalten sich AMD und Nvidia GPUs unterschiedlich wenn man die RT Settings anpasst, aber ob du in dem Beispiel von Hogwarts nun eine 4080 und eine 7900XTX mit RT Hoch in 4K nativ oder 4K mit FSR Quality testest, hat auf die Leistung der GPUs im Vergleich keinen Unterschied,
Lies dir den Text einfach nochmal durch!
Mit Raytracing übernehmen wenig verwunderlich die GeForce-Grafikkarten die Führung, wobei die Radeons noch ganz gut mithalten können, wenn die RT-Qualität nur auf Hoch anstatt Ultra steht. Dann ist die GeForce RTX 3080 „nur“ 15 Prozent schneller als die Radeon RX 6800 XT in Full HD und die GeForce RTX 4080 9 Prozent schneller als die Radeon RX 7900 XTX in WQHD.
Wie wäre das Ergebnis ausgefallen, wenn man den Benchmark nicht auf RT Hoch reduziert hätte? Mit welcher Begründung hat man es trotzdem gemacht? Ich möchte an dieser Stelle jetzt aber gar nicht mal diesen Graben aufreißen, sondern schlichtweg anmerken, Tests mit aktiviertem DLSS/FSR sind schön um zu sehen was damit möglich ist, aber untauglich um die Grafikleistung zweier GPUs zu vergleichen.
 
xexex schrieb:
Lies dir den Text einfach nochmal durch!

Wie wäre das Ergebnis ausgefallen, wenn man den Benchmark nicht auf RT Hoch reduziert hätte?
Sieht man auch im Test, dann wäre AMD eben sehr viel weiter hinten gewesen.
1713565197856.png


Aber erneut, das hat absolut 0 mit dem Thema DLSS/FSR zu tun, denn auch mit einem Test in RT Ultra wäre der Unterschied zwischen der 4080 und der 7900XTX in 4K Nativ genau so groß gewesen wie in 4K mit DLSS Quality, solange man außerhalb des CPU Limits bleibt.
Du veränderst ja nichts an den Settings, du reduzierst einfach nur die Auflösung.

In dem Fall hätten wir in 4K Nativ halt ~26 zu ~38 statt ~41 zu ~60 gehabt
 
Zuletzt bearbeitet:
Taxxor schrieb:
Sieht man auch im Test, dann wäre AMD eben sehr viel weiter hinten gewesen.
Mir schon klar.... Wie gesagt, andere Baustelle, aber ein Steinchen der die GPU Tests hier auf Bildniveau senkt.

Taxxor schrieb:
Aber erneut, das hat absolut 0 mit dem Thema DLSS/FSR zu tun
Vollkommen richtig, dazu habe ich ebenfalls genug gesagt. Die Rohleistung der GPUs kann man damit nicht vergleichen, der Performanceunterschied durch DLSS/FSR ist vom Spiel zu Spiel unterschiedlich und die Qualität zwischen den beiden Technologien ist unterschiedlich und hängt noch von Version und Settings ab.

Dann frage ich dich einfach mal, wozu das ganze dann?
 
xexex schrieb:
Mal so, mal so, mal links mal rechts.... Ich drehe mir die Welt wie sie mir gefällt. Am Ende reicht mir ein einziges Beispiel aus, um jegliche GPU Tests auf dieser Seite schlichtweg zu ignorieren.
Und was bringt es Spiele nur nativ und nur in Ultra zu benchen, wenn dann oftmals nur die 4090 sinnvolle Bildraten schafft? Da finde ich den Ansatz den CB gewählt hat viel schlauer, das sind Settings wie viel hier sie auch in Realität anwenden werden.

Wenn dir die Tests hier so wenig zusagen, musst du dich halt wo anders informieren und kannst uns gerne mit deinem Gejammer in Ruhe lassen. Der Aufwand den CB hier reinsteckt immer aktuelle Benchmarks für uns zu Erstellen ist immens!
 
  • Gefällt mir
Reaktionen: maaco90, SweetOhm und Kazuja
xexex schrieb:
Dann frage ich dich einfach mal, wozu das ganze dann?
Um den Nutzern ein so gut es geht realistisches Bild davon zu vermitteln, was sie mit den jeweiligen GPUs in einem bestimmten Spiel erwarten können, ganz einfach.

Alles andere ist rein akademischer Natur, das kann man in gezielten groß angelegten GPU Testartikeln machen, wo es wirklich gar nicht so sehr um die einzelnen Spiele sondern ums Ranking generell geht, aber es ist nicht sinvoll für einzelne Spiele-Tests.
Was bringt es z.B. Spiel X zwingend in 4K Nativ mit Maxed out Settings zu testen, wo dann selbst ne 4080 nur 30FPS erreicht, wenn es niemand bei Verstand so spielen würde und zudem auch noch beim Testen aufgefallen ist, dass nicht nur mit dem "Hoch" Setting so gut wie kein optischer Unterschied zum "Max" Setting zu erkennen war(es aber 30% mehr FPS liefert) und dazu auch DLSS Quality sogar etwas besser aussah als Nativ?

Dann testet man doch lieber so, wie es auch sinnvoll ist und gibt die Empfehlung raus, das Spiel auch so zu spielen.
Bei dem 4K Nativ Max Settings Test würde dann nur rauskommen "Das Spiel ist mit keiner aktuellen GPU vernünftig spielbar", was aber Unsinn wäre, wenn man im Test festgestellt hat, dass Max Settings und Nativ generell keinen Sinn machen und eigentlich bei im aktiven Spielgeschehen mit bloßem Auge nicht zu unterscheidender Optik auch doppelt so hohe FPS drin sind.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: maaco90
Ich finde den Test gut da die Super-Resolution-Technologien getestet werden.

Ich nutze in LS22 und CoD Warzone FSR 3.0 und alles läuft sehr gut. Ich hatte vorher eine RTX 3060 mit DLSS 2.0 und Optisch konnte ich kein Unterschied feststellen, vielleicht ist es sogar mit FSR 3.0 besser da nun alles in 1440p läuft.

DLSS und FSR, das ist eben die Gegenwart und die Zukunft.
 
  • Gefällt mir
Reaktionen: SweetOhm
Jok3er schrieb:
ch nutze in LS22 und CoD Warzone FSR 3.0 und alles läuft sehr gut. Ich hatte vorher eine RTX 3060 mit DLSS 2.0 und Optisch konnte ich kein Unterschied feststellen
Zu LS22 kann ich zwar nichts sagen, aber COD sieht mit FSR3 sofort schlechter aus, auch DLSS ist da nicht super, bei dem Spiel geht eigentlich nur Nativ mit Fidelity FX CAS auf 75% wenn man das beste Bild will.

Aber in anderen Spielen, wie FN, sieht es besser mit DLSS als Nativ aus. Drum macht es auch imho keinen Sinn es ohne zu testen, wer würde freiwillig mit schlechterem Bild spielen, oder mit weniger FPS bei gleichen Bild wie "Nativ".
 
Taxxor schrieb:
Um den Nutzern ein so gut es geht realistisches Bild davon zu vermitteln, was sie mit den jeweiligen GPUs in einem bestimmten Spiel erwarten können, ganz einfach.

Alles andere ist rein akademischer Natur, das kann man in gezielten groß angelegten GPU Testartikeln machen, wo es wirklich gar nicht so sehr um die einzelnen Spiele sondern ums Ranking generell geht, aber es ist nicht sinvoll für einzelne Spiele-Tests.
Stimme Dir zu. Spiele mit Settings zu testen, die im Durchschnitt vermutlich verwendet werden, hat in der Regel mehr Informationsgehalt für eine größere Zielgruppe. Für Leute wie mich, die, bis auf wenige Ausnahmen, mit maximalen Settings spielen, bieten Artikel wie dieser hier natürlich einen geringen Mehrwert, aber damit kann ich leben.

Das Problem ist allerdings, dass CB mittlerweile auch die großen Grafikkartentestartikel, in denen es wirklich darum geht, die tatsächliche Leistung von Grafikkarten relativ zueinander über eine große Anzahl Spiele zu bestimmen, mit reduzierten Settings durchführt. Das ergibt m. E. leider tatsächlich keinen Sinn und ist vergleichbar mit einem CPU-Testartikel in dem nur in 1440p oder 4K gebencht wird, "weil ja niemand in 720p spielt". Wenn ich also aussagekräftige Grafikkartentests (nicht Spiele- oder CPU-Tests) lesen möchte, schaue ich mich mittlerweile anderweitig um. Das finde ich sehr schade, da mir die Aufbereitung der Ergebnisse und auch die Analysen in den Texten auf CB ansonsten sehr gut gefallen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: xexex
Wie würde ich das machen
zuerst 4 gpu zwei settings maxed was geht also dxr auf maximum und raster minimum auf 1080p 1440p und 2160p
Die gpu rtx4090 rtx4060 rx7900xtx und rx7600xt (da die rx7600 identisch ist abseits vom Speicher)
Das wären 24 benchruns möglichst reproduzierbar.
Dann bei jeden run die gpu load mitnehmen und als Diagramm darstellen +median dessen das ließe sich perfekt mit gpu busy lösen angaben in ms
Zu upscaler dann nur eine gpu idealerweise die wo kein cpu limit herrscht und die unterschiedlichen presets Gegenstellen mit video/bildvergleich das alleine wäre ein Artikel wert auch beachtet cpu limit

Zu dem test parallel dann 6 cpu gen vergleichen bezieht sich auf cpu gen nicht sku mit einer gpu
einmal zen2 ryzen 3000 zen3 ryzen 5000 zen4 ryzen 7000 core i10th core i12th und core i14
also nochmal 6 ergeben grob 50 Testläufe und das dauert und das für ein spiel.
5 benchtables 5 Redakteure grob 3 Wochen
win 11 aktuelles build
Den gpu test würde ich mit einen benchtable machen die anderen 4= 2 dediziert von intel 2 von amd
Alle haben dasselbe os gespiegelt also am ende 5 win Lizenzen
Das system mit der höchsten cpu limit bleibt bestehen ich nehme an das die core i10th gen das sein wird.

Wozu das ganze um endlich die mär vom Treiberoptimierung zu entkräften und zwischen den cpu gen die perf Steigerung anhand von cpu limits zu finden.
Das ist stark spielabhängig. und generell ebi gpu test imer die gpu load mit angeben + zu den abständen anderer cpu gen mit vergleichbarer cpu test je spiel also mal das maximum an cpu limits darstellt
daher würde ich die benchtabels sogar noch verdoppeln auf 8 für die cpu test.
Damit diese konstant mit neuen spielen in cpu limit Jagd bereitstehen.
Die gpu test min vs vlow dann 4 benchtables mit der schnellsten cpu
Die perf Differenzen zwischen den gpu lassen sich querlesen beim test mit den maxed settings und gpu load. das ist zwar relativ ungenau aber annähernd vergleichbar.
Nix anderes macht man mit seinen system vs dem zukünftigen upgrade option bzw kompletten system.

Das ist viel hardware und braucht einige Leute würde aber mit yt Kanal und anderen Anbietern mit relativ viel Werbung unbeeinflusst da andere Zuständigkeit. Und Kooperationen (shops) gut laufen. Dazu ne webseite und fähige Moderatoren die auch Ahnung haben.
Ob es Erfolg hat? Da hilft es das man ne Bekannte webseite hat und nenn ruf. Den ohne wird das schwer umzusetzen sein.
 
Hat ja echt deutlich länger gedauert als gedacht :D

MalWiederIch schrieb:
CB bleibt weiterhin unseriös
MalWiederIch schrieb:
Wie wir ja alle wissen sieht es ansonsten ganz anders aus:
[IMG]https://www.computerbase.de/forum/attachments/img_2253-jpeg.1476003/[/IMG]
Was ist denn eteknix für eine super seriöse Seite? Hab von denen noch nie was gehört und deren Seite ist auch naja...
Und dass man von von einem Test so getriggert ist, weil die eigene Karte die man um teuer Geld gekauft hat, nicht überall den längsten Balken hat, dass man im Internet suchen muss bis man Benchmarks findet die einem passen, egal von welcher Seite...
MalWiederIch schrieb:
Dann schau mal wie es aussieht, wenn man nicht unseriös bei Nvidia DLSS und bei AMD TSR nutzt:
Wie oft willst du den Screenshot noch posten :D
MalWiederIch schrieb:
Nicht wirklich eine Sache der Ansicht - DLSS/FSR/TSR sind unterschiedliche Techniken und liefern bekannterweise unterschiedlich (gute) Ergebnisse :)
Also sollte man auf AMD auch DLSS nutzen? :D
Evtl sollte man aber wirklich, wenn vorhanden, auf allen Karten den gleichen Upscaler nutzen für die Vergleichbarkeit.
 
  • Gefällt mir
Reaktionen: Skysurfa, SweetOhm und Kazuja
MalWiederIch schrieb:
Wie wir ja alle wissen sieht es ansonsten ganz anders aus:
Und was bringt der Realitätsfremde Test, alle Karten bis auf die 4090 unter 60 FPS in einem Multiplayer Titel? Wer spielt so?
Man kann ja viel über Upscaling schimpfen wenn die Grafik spürbar schlechter ausfällt, aber gerade in 4K ist es ein Zugewinn, wieso sollte man darauf verzichten?
 
  • Gefällt mir
Reaktionen: SweetOhm
xexex schrieb:
Hogwarts Legacy
https://www.computerbase.de/2023-02/hogwarts-legacy-benchmark-test/
[IMG]https://www.computerbase.de/forum/attachments/1713563931423-png.1476054/[/IMG]
Das ist nicht der einzige Titel, bei dem man letztlich sich die Frage stellen darf was das soll. Das hat mit "Benchmarks" wie sie mal früher waren, als noch alle Regler nach rechts geschoben wurden und man tatsächlich die Rohleistung der GPUs verglichen hat, schon lange nichts mehr zu tun.
Deshalb gleichzeitig auch bei PCGH nachsehen, die wissen anscheinend noch wie es geht...
 
PeacemakerAT schrieb:
Und was bringt es Spiele nur nativ und nur in Ultra zu benchen, wenn dann oftmals nur die 4090 sinnvolle Bildraten schafft? Da finde ich den Ansatz den CB gewählt hat viel schlauer, das sind Settings wie viel hier sie auch in Realität anwenden werden.
Darum ging es ihm nicht, sondern eher darum, dass Grafiksettings "gewürfelt" werden.
Ich verstehe auch nicht, wieso man Nvidia mit DLSS und AMD mit TSR bencht. Warum nicht bei beiden TSR, damit man die Ergebnisse auch wirklich miteinander vergleichen kann, denn so kann man es nicht, weil es unterschiedliche Settings sind.
 
  • Gefällt mir
Reaktionen: Kazuja
PeacemakerAT schrieb:
Und was bringt der Realitätsfremde Test, alle Karten bis auf die 4090 unter 60 FPS in einem Multiplayer Titel? Wer spielt so?

Ach menno... Du hast den Beitrag nicht gelesen, nur die Balken angeguckt. 😭

"Die CB-Empfehlung: Mindestens 90 FPS sollten es sein

Apropos Framerate: Wie viele FPS braucht es in Fortnite überhaupt? 60 FPS für ein ordentliches Spielerlebnis lassen sich in Einzelspieler-Titeln schnell nennen, in Multiplayer-Games müssen es aber mehr sein – Fortnite fühlt sich mit 60 FPS auch höchst unrund an. Die Redaktion empfiehlt in der Testszene mindestens 80, eher 90 FPS für ein brauchbares (wenn auch noch kein gutes) Spielerlebnis. Bei weniger als 80 FPS wird die Steuerung ziemlich ungenau, was wortwörtlich schnell der Tod sein kann. Die Empfehlung ist dabei wirklich nur als Minimum zu verstehen, denn das Game profitiert von dreistelligen Frameraten auf einem entsprechenden Monitor deutlich"
 
Zuletzt bearbeitet:
Sinatra81 schrieb:
Ach menno... Du hast den Beitrag nicht gelesen, nur die Balken angeguckt. 😭

"Die CB-Empfehlung: Mindestens 90 FPS sollten es sein
Habe ich schon, ich habe mich auch nicht auf den Artikel bezogen sondern den Beitrag von @MalWiederIch
Ergänzung ()

MrHeisenberg schrieb:
Darum ging es ihm nicht, sondern eher darum, dass Grafiksettings "gewürfelt" werden.
Wieso gewürfelt?
nVidia hat nunmal einen eigenen Upscaler im Spiel und nutzt deshalb DLSS, AMD muss TSR nehmen, gibt ja anscheinend kein FSR in Fortnite.
 
  • Gefällt mir
Reaktionen: SweetOhm, Sinatra81 und Kazuja
PeacemakerAT schrieb:
nVidia hat nunmal einen eigenen Upscaler im Spiel und nutzt deshalb DLSS, AMD muss TSR nehmen, gibt ja anscheinend kein FSR in Fortnite.
Warum dann nicht bei beiden TSR?
 
MrHeisenberg schrieb:
nicht bei beiden TSR?
Ich denke es liegt daran, das NVIDIA mit tsr auch nicht klar kommt, so wie bei Intel. Das zeigen zumindest einige Tests, Dlss vs tsr.
 
  • Gefällt mir
Reaktionen: MrHeisenberg
VIelen Dank für den Grafikkartentest. Bei meinem Notebook ist das Spiel trotz brauchbarer Grafikkarte unspielbar. Mit 4+4 Kerne x 3,4Ghz ist die CPU 8250U @ 15 Watt einfach zu langsam - permanente heftige aussetzer/ruckler leider.

Selbst mein 9900k im Haupsystem limitiert die RTX 3090, da mit RT die CPU zu schwach ist. (Ok hier auf hohem Niveau)

Einen CPU Test mit und ohne RT, ältere und aktuelle Modelle wäre auch sehr spannend bei dem meist gespielten Spiel, das es auf dem Markt gibt.
 
Zurück
Oben