Test Grafikkarten 2023 im Test: GeForce-, Radeon- & Arc-Benchmarks im neuen Testparcours

D3xo schrieb:
Ahaha, das Diagramm zeigt fast 200 FPS bei MSFS. Vielleicht wenn du die komplette Simulation killst, also alles was eine Simulation ausmacht abschaltest, wie Wetter, KI Verkehr, etc. und das einfachste Flugzeug nimmst und auf 15.000m steigst und nur Weltraum mit der Außenkamera anstarrst.
liegt wohl eher daran das es laut Grafik mit Framegeneration gemacht worden ist, keine Ahnung wie hoch da die Sprünge sind.
 
Fighter1993 schrieb:
Das würde ja bedeuten das die neueren Spiele immer weniger RT einsetzten.
Das bedeutet schlicht konkret: Spieleauswahl. Es gibt genug RT-Spiele da draußen, wo es nur RT-Sparflammenkost gibt oder wir schlicht von einem AMD-Partnerspiel reden. Dass gerade bei letzterem nur mit Bedacht geraytraced wird, ist ja logisch. Kein Unternehmen der Welt will seine eigenen Produkte schlecht aussehen lassen, was bei RDNA2/3 logischerweise der Fall ist, wenn (überspitzt formuliert) mal mehr als nur ein bisschen RT-Schatten implementiert werden.

Wenn man unabhängig davon RT auch nur auf deutlich reduzierten Einstellungen testet, dann hast du logischerweise dasselbe Phänomen, denn da bricht RDNA deutlich weniger ein. Ändert sich oft genug gewaltig, wenn man dann Richtung High/Ultra geht und der Abstand wird deutlich größer.

Ist halt eine Abwägung der Umstände. Testet man (teilweise) nur mit RT auf deutlich reduzierten Details (auch bei absoluten High-End-Boliden), dann bevorzugt das Radeons und bremst Ampere aufwärts andererseits deutlich(er) ein, denn die können viel mehr als das vertragen (mal ohne, mindestens aber mit DLSS). RDNA halt nicht. Das ändert aber nichts an der grundlegenden "RT-Tauglichkeit" der spezifischen Grafikkarten bzw. Architekturen. Die bleibt trotzdem bei dem einen Hersteller (immer in Abhängigkeit von GPU und Auflösung logischerweise) hervorragend, bei dem anderen halt... meh.
 
  • Gefällt mir
Reaktionen: MoinWoll
@Wolfgang
Bei den nonRT Ergebnissen gibts wohl gar kein Metro EE ?
Ist da einfach RT genommen worden?

Habs gerade net auf dem PC, so das ich net sehen kann, ob sich RT deaktivieren lässt.
Wenn net, dann wäre das originale Metro Exodus vllt. handlicher gewesen.
 
Also wenn CB folgendes implementieren koennte, waer man allen weit voraus und waer auch flexibler:

Bei jedem Game in der Grafik/Tabelle dazuschreiben ob das Game neutral, AMD- oder NVlastig arbeitet
oder auch nur auf eine Liste verweisen. So kann man eigene Objektivitaet gut bestaetigen
Wenn man dann noch dem User die 3 Optionen gibt die Benchmarks nach diesen 3 Kategorien zu filtern, waer das OPTIMAL!

Bedarf ja auch gar keine Recherche, da CB selbst tonnenweise Benchmarkinfos hat, bzw. kann man diesen Trend wirklich einfach per Game per GPU filtern und dann wirklich sehen wer wieviel pro Euro leistet.

die Datenbank dafuer waer nichtmal Aufwand! sind bereits alle vorhanden und die Programmierung des G'schicht ist nicht viel schwerer, wuerd ich sogar uebernehmen

Oder nur mit den Verweis auf eine vorhandene Liste>
Stellt euch vor die interessierten User lesen auf den anderen Webseiten Benchmark Artikel, kommen aber auf diese CB Liste um die Glaubwuerdigkeit der Benchmarks zu pruefen....so viele Klicks aus aller Welt...
 
  • Gefällt mir
Reaktionen: _Cloud_
MrHeisenberg schrieb:
Ich sehe es anders. Wenn ich wissen will, wie hoch die RT Leistung einer Karte ist, kann ich nicht mit hybriden testen, denn die verfälschen das Ergebnis.
Was man hier sieht ist nicht die RT Power, sondern Raster + 1-2 RT Effekte, deshalb sind solche sachen wie die PT Demo von CyberPunk viel Aussagekräftiger.


Frage an dich: Warum liegt die 7900XTX hier vor der 4080?
Weil die 7900XTX mehr RT Leistung hat? Mit Sicherheit nicht, denn es liegt an der Rasterleistung. Das bisschen RT wird hierbei wegkompensiert.
Ist das Spiel also Aussagekräftig, um die RT Leistung einer Karte zu bewerten? Nein.
Der Benchmark ist auch nicht mit max. RT Settings gemacht worden.
Neue Pathtracing-Spiele (ich meine jetzt nicht Remix oder ähnliches) wird es kurz- und mittelfristig aber nicht auf dem PC geben. Zumindest nicht, solange nicht ein Grafikkarten-Hersteller, ganz gleich welcher, ordentlich darin investiert.

Und zu The Callisto Protocoll: Da liegt die Radeon auch mit max RT vor der GeForce. Dass die Rasterizer-Leistung dafür nicht verantwortlich ist, kann man zumindest erahnen. Denn mit reiner Raster-Grafik schneidet Nvidia besser als im Vergleich zu AMD als mit RT. Warum auch immer das in dem Spiel so ist.
GerryB schrieb:
@Wolfgang
Bei den nonRT Ergebnissen gibts wohl gar kein Metro EE ?
Ist da einfach RT genommen worden?

Habs gerade net auf dem PC, so das ich net sehen kann, ob sich RT deaktivieren lässt.
Wenn net, dann wäre das originale Metro Exodus vllt. handlicher gewesen.
Genau, Metro wird nur in den RT-Benchmarks berücksichtigt, anders geht es nicht.
Hito360 schrieb:
Also wenn CB folgendes implementieren koennte, waer man allen weit voraus und waer auch flexibler:

Bei jedem Game in der Grafik/Tabelle dazuschreiben ob das Game neutral, AMD- oder NVlastig arbeitet
oder auch nur auf eine Liste verweisen. So kann man eigene Objektivitaet gut bestaetigen
Wenn man dann noch dem User die 3 Optionen gibt die Benchmarks nach diesen 3 Kategorien zu filtern, waer das OPTIMAL!
Naja, wie entscheidet man das dann? Anhand von einem Durchschnitt mehrer Spiele?
Und was ist, wenn bei reiner Raster-Grafik noch alles gut ist, und mit RT plötzlich einer klar vorne liegt. Cyberpunk ist so ein Fall.
 
  • Gefällt mir
Reaktionen: Redundanz und GerryB
Chismon schrieb:
Es (Callisto Project) ist zumindest kein Einzelbeispiel im Gegensatz zur einseitig optimierten RT-PT Demo von Cyberpunk 2077/CD Projekt Red (da eine RX 7900XTX mit einer RTX 3070 in RT-RT sonst Schlitten faehrt; selbst meine aeltere RDNA2 dGPU ohne Tensorkerne ist in RT-RT im Schnitt schneller als eine RTX 3070 und gar nicht so viel schneller in der Rasterizerleistung, welches Dir zu denken geben sollte).
Es sind Hybride und die sind nunmal nicht sonderlich Aussagekräftig, wenn man wissen will, wie stark die RT Leistung einer Karte ist.
Du vergleichst ja auch keinen Tesla mit einem Hybrid-Auto, wenn du wissen willst, welches Elektrofahrzeug die höhere Reichweite aufweist.

Siehe auch:
https://www.pcgameshardware.de/Rayt...cials/ART-Mark-Raytracing-Benchmarks-1371125/
RDNA3 hat nicht so viel mehr RT Leistung bekommen. Mit 50% mehr landen wir irgendwo zwischen 3070 und 3080.

Fighter1993 schrieb:
Das würde ja bedeuten das die neueren Spiele immer weniger RT einsetzten.
So ist es auch. Die meisten Spiele sind Hybride, also hauptsächlich Raster mit ein bisschen RT.
 
Zuletzt bearbeitet:
Hito360 schrieb:
Also wenn CB folgendes implementieren koennte, waer man allen weit voraus und waer auch flexibler:
Bei jedem Game in der Grafik/Tabelle dazuschreiben ob das Game neutral, AMD- oder NVlastig arbeitet
oder auch nur auf eine Liste verweisen. So kann man eigene Objektivitaet gut bestaetigen
Wenn man dann noch dem User die 3 Optionen gibt die Benchmarks nach diesen 3 Kategorien zu filtern, waer das OPTIMAL!
CB-Parcour@4k.JPG

nur mal schnell so geklickt, das die 3080 und 6800xt on par sind bei "AMD"-games
(kann man sicher auch noch ein mue anders klicken, da die Änderung oft nur 1% je Game ist)

Was auffällt ist, die "NV"-games liegen z.T. RDNA3 besser als RDNA2.
(wird wohl damit zu tun haben, das bei RDNA3 die FP32 verdoppelt wurden und generell wave64 besser läuft)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Redundanz
Mcr-King schrieb:
Also die RX6700er und die Arc 750 sind recht gut finde ich auch die RX6600er sind klasse. 😉
Ich habe mit dir Asrock RX 6900 XT (Formula) geholt und bin damit wirklich sehr zufrieden.
MrHeisenberg schrieb:
Nein, AMD holt in RT nicht auf. Fast alle Titel sind Hybride, also massiv Raster mit ein bisschen RT.
Sollte klar sein, dass AMD mit leichtem RT nicht so weit zurückfällt. Sobald ein Spiel aber starken gebrauch von RT (Schatten, Reflexionen etc. mit vielen Bounces/Rays oder gar Path Tracing) macht, fallen sie weit zurück.
Ja was RT angeht, ist Nvidia viel weiter. Ich spiele auch mit RT, aber wenn ich sehe, das es
nicht geht, schalte ich es aus. Raytracing ist für mich kein Kaufgrund. Dies ist natürlich meine persönliche Meinung und jeder empfindet das anders…..
 
  • Gefällt mir
Reaktionen: Redundanz, _Cloud_ und Mcr-King
GerryB schrieb:
[...]nur mal schnell so geklickt, das die 3080 und 6800xt on par sind bei "AMD"-games[..]Was auffällt ist, die "NV"-games liegen z.T. RDNA3 besser als RDNA2.[...]
Viele(mich einbezogen) wissen auch nicht immer ausm Stehgreif welches Benchmarkgame AMD- oder NV-lastig (oder neutral) ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
MadGear schrieb:
Schöne Übersicht, meine Wahl macht es mir aber nicht leichter. Ich bin leider weder Nvidia noch AMD Fan, habe also die Qual der Wahl zwischen 12GB VRAM (4070 und Ti), Budgetsprenung (4080) und hoher Leistungsaufnahme im Idle bei 144Hz+ (7900 XT). Da muss man ja wirklich genau schauen, welches Gift einem eher zum Verhängnis wird.

Ich nehme mal an, dass auch AMDs Hybrid Graphics das RNDA3-Problem nicht löst/mildert?
Hallo,

also Idleverbrauch ist Setupabhängig, wie ich ~15Watt GPU bei 144Hz @4k verbrauche.

Habe auch Hybrid Graphics benutzt, ist sogar bei youtube sparsamer als per GPU und im Desktop evtl. 1-5Watt was dann aber bei mir unter Messtoleranz läuft (ob 11, 12, 14, 16 Watt)

Allerdings taktet dann mein 7600 mit dem Ram nicht mehr so schön, der macht aktuell 5600 mit 1,2V und straffen timings. Wenn er noch die Grafik mitmacht geht eher 5200 Lax.

Soviel dazu, also es kann durchaus für die, welche unglück beim Moni+7900XT(X) haben ein gutes Mittel im IDLE sein. (Nebentip: Monitorfirmware updaten, habe die neueste, könnte was bringen)

Und als kleinen Beleg noch ein Youtubevideo, wie es gehen sollte.
 
  • Gefällt mir
Reaktionen: MadGear und Mcr-King
Wolfgang schrieb:
Naja, wie entscheidet man das dann? Anhand von einem Durchschnitt mehrer Spiele?
Und was ist, wenn bei reiner Raster-Grafik noch alles gut ist, und mit RT plötzlich einer klar vorne liegt. Cyberpunk ist so ein Fall.

Wie ermittelt man denn aktuell ob ein Spiel herstellerlastig ist?
das Game ist dir nicht bekannt,
im TestText stehts auch nicht drin
oder der Text ist eventuell mies/maschinell uebersetzt

Ich wuesst nur den Weg die Informationen anhand Benchmarks empirisch zu ermitteln,

wie es auch bisher ueblich ist - aber in unserem Fall muss CB ja keine zusaetzlichen Tests fahren um das zusammen zu tragen, es gibt ja genug bereits ausgefuerhte Tests, je nach Engine ist das schon fast vorgegeben

Und ich sehe auch keine Schwierigkeit die "Herstellerlastigkeit" dann in den Kategorien Raster, RT, PT getrennt zu listen.
 
Skotty schrieb:
  • 3840x1600 Pixel @60Hz : 20W laut AMD-PPT-Sensor
  • 3840x1600 Pixel @120Hz : 40W laut AMD-PPT-Sensor
Könntest du vielleicht einmal das Leistungsprofil Energiesparen vom Amdgpu Treiber aktivieren (z. B. mit CoreCTRL). Es würde mich sehr interessieren, ob die Leistungsprofile bereits mit der 7000er Serie funktionieren und ob dann der Verbrauch damit nochmals sinkt.

Mich interessiert nämlich die 7900er Serie. Ich werde aber noch Warten bis das Overvolting/Undervolting im Treiber funktioniert. (https://gitlab.freedesktop.org/drm/amd/-/issues/2334)
 
Hito360 schrieb:
Viele(mich einbezogen) wissen auch nicht immer ausm Stehgreif welches Benchmarkgame AMD- oder NV-lastig (oder neutral) ist.
Generell wirds einfach so sein, das mehr Studios mit NV-Grakas programmieren und testen.
Dadurch vllt. beim Gamelaunch auch einfacher mit NV zu händeln.

AMD muss dann erst nachziehen mit eigenen Tests und gameready Treiber.
(vllt. kann mal ein Azubi in der Redaktion die Treiber vom letzten Jahr anschauen, ob in den Releasenotes
tatsächlich alle Games vom Parcour als optimiert genannt werden, .... glaube ich aber net, so das immer ein
paar unoptimierte Games dabei sein werden)


btw.
Bei Konsolenports sehe ich auch net unbedingt AMD im Vorteil, weil das meist uralte PS4-Dinger(x) sind,
wo dann VLK oder DX12 draufgeflanscht wird. (schlimmstenfalls noch mit nem "dummen" Compiler)
dito Remastered

(x) PS4 = Polaris-Hardware = GCN = vollkommen anders als RDNA
 
Zuletzt bearbeitet:
GerryB schrieb:
Bitte dann erstmal ein bisschen rumlaufen bis der Vram sich gefüllt hat, bevor irgendwelche minFps gemessen werden. (vllt. als separate Frametime Geschichte)
Jupp. Das wird ja leider immer vergessen. Dann sieht man wieder Leute hier die sagen "aber die 8GB reichen ja leider auf Traktosimulator 2013 und die Seite xy hat 57FPS auf FHD gebencht. Reicht doch!".
Dass es dann nach 10 Minuten in einem anderen Level schon ganz anders aussehen kann, wird ja gerne vergessen - wobei es dafür ja den HWU-Test mit ausfühlichem Video gab.

Ist ein bisschen wie die Diskussion darum, ob die Erde nun eine Scheibe oder Kugel ist...
 
Linmoum schrieb:
Das bedeutet schlicht konkret: Spieleauswahl. Es gibt genug RT-Spiele da draußen, wo es nur RT-Sparflammenkost gibt oder wir schlicht von einem AMD-Partnerspiel reden. ...

Das bedeutet schlicht konkret: Spieleauswahl. Es gibt genug RT-Spiele da draußen, wo es nur RT-Wahnsinn bei 10% besserer Optik bei 50% Frameeinbruch gibt oder wir schlicht von einem NVIDIA-Partnerspiel reden.
 
  • Gefällt mir
Reaktionen: Novasun
Sehr interessant finde ich, wie gering - insbesondere preisbereinigt - der Unterschied zwischen AMD und NV-Karten der aktuellen Generation in den RT-Benches ist.
Ob 7900xt oder 70ti ist da ja eigentlich mittlerweile vollkommen egal. Die Verbesserungen der RDNA 3-generation, die ich selber von der Hardwareseite als nicht besonders relevant gesehen hatte, zahlen sich mittlerweile wohl doch in neueren Spielen aus. Sehr cool, für die AMD-Fraktion.

Man muss sich also nicht mehr für oder gegen RT entscheiden (Ausreisser ausgenommen) sondern kann sich an anderen Dingen wie der Rohleistung, Preis, Speicher... orientieren, womit die Einordnung nach Leistungsklassen wieder funktioniert. Finde ich gut, macht die Vergleichbarkeit leichter.
 
  • Gefällt mir
Reaktionen: Redundanz und Cleanor
@Wolfgang @Jan Vielen Dank schon mal für diesen sehr umfangreichen Test.

Die Entscheidung bei RT auch Einstellungen zu testen auf denen RT Games dann auch auf kleinen NV Karten spielbar bleiben finde ich sehr gut.

Allgemein:
Bezüglich der AMD 144 HZ Problematik. Hier fehlt mir der Hinweis das es nur die 144Hz betrifft. Ich meine irgendwo schon gelesen zu haben das z.B. 120Hz nicht betroffen sind.
Die Seite hatte typische Frequenzen getestet. (60 80 oder 90 120 144 evtl. sogar über 144 meine 165)

Sehr stark - die Beobachtung das beim Video@60Hz abspielen trotz 144 Hz plötzlich der Verbrauch runter geht... Könnte für AMD ja ein Workaround geben. Die müssen der Karte intern nur vorgaukeln das immer auf nem 144 Hz Desktop ein 60Hz Video läuft...

Ich frag mich auch ob Igor da nicht den ein oder anderen Industrie Kontakt hat der da aus dem Nähkästchen plaudern könnte - was da im Detail schief läuft...
 
GerryB schrieb:
Generell wirds einfach so sein, das mehr Studios mit NV-Grakas programmieren und testen.
Dadurch vllt. beim Gamelaunch auch einfacher mit NV zu händeln.
Wieso nimmst du denn an ueberhaupt dass Studios mehr mit NV programmieren?
Vermutlich, weil du von allgemeinen Martkanteilen ausgehst. Studios nutzen vorher bereitsgestellte Testhardware(keine GPU) oder simulieren einfach alle Prozesse mit entsprechender Serverhardware.

Sicherlich werden nicht alle Studios die Resourcen aufwenden um alle GPUs der Welt einzeln zu erwerben/besorgen und dann ausgiebig zu testen
 
Man wird vermutlich rel. große GPU´s nehmen, damit der Programmierer schneller voran kommt.
(>=3080, ... k.A. ob dann auch schon die Vrammenge ne Rolle spielt)

Die Kosten für die Arbeitsstunde sind sicherlich am Wichtigsten, ... net so sehr die GPU.
Das man im letzten Arbeitsschritt dann auch mal auf ner 8GB-Graka optimiert ist klar.
Deswegen sehen halt die Promovideos auf der 4090 immer besser aus als das finale Game.
 
  • Gefällt mir
Reaktionen: Redundanz
Also Nvidia hat was für ne Zielgruppe im Kopf Leute die 1080p nur spielen 1440p nicht, und dort müssen sie in einigen Titel bei 1080p auf "hoch" zurück schalten auch noch... und kommt mir nicht mit Steam Statistiken die Leute mit den 1080p Monitoren spielen oft auch mit Intel IGP...

Vielleicht irgendwelche Esportler die aber 0 Erfolg bisher hatten, da sie sich sonst eh bessere Hardware kaufen würden, selbst wenn sie die Settings auf Low drehen...

Wer will ne 400 Euro Grafikkarte um dann bei 1080p die Details zurueck zu drehen und extrem schlechtes Erlebnis auf 1440p zu haben?
 
Zurück
Oben