Test Grafikkarten 2023 im Test: GeForce-, Radeon- & Arc-Benchmarks im neuen Testparcours

MrHeisenberg schrieb:
Es sind Hybride und die sind nunmal nicht sonderlich Aussagekräftig
Genau, aussagekraeftig, weil es ja so viele RT-RT Titel gibt, denn die etablieren sich gerade einmal zunehmend im AAA Bereich (Bugs, etc. inkludiert), wo das mittlerweile erwartet wird, aber darunter fristet RT-RT immer noch trotz Einfuehrung vor etlichen Jahren und Marketing-/Medien-Hype - ein Nischendasein, auch weil es keine Notwendigkeit ist und die meisten Spiel auch gut ohne auskommen und oftmals erfolgreicher sind als welche mit RT-RT.

Soviel zur Relevanz, wenn es sich denn um Hybridkarte handeln würde, aber Moment einmal, die RTX nVidia Karten laufen ja auch nicht nur mit Tensorkernen und viel Luft und Liebe und ja, es gibt bspw. auch ein Video, welches zeigt wie bescheiden selbst bei nVidia der RT-RT Fortschritt bisher/seit Einfuehrung (trotz Tensorkernen) ist ... tja, ergo waeren das dann per Definition auch Hybridkarten, denn ohne Rasterizer und Speicher geht es eben auch dort nicht und diese bleiben nach wie vor bei Grafikkarten voraussichtlich am relevantesten, egal wie viele RT-RT/RT-PT Fans etwas anderes erzaehlen.

Man kann auch gerne Fan von RT-RT und RT-PT sein.

Das waere ich auch, wenn es von Anfang an denn vernuenftig umgesetzt worden waere - was bis heute meist nicht der Fall ist - und keine Geldmacherei mit Kartenaufpreisen im Voraus, etc. ist, aber so bleibt es fuer mich ein "nice-to-have"/gelegentliches Ausprobier-Feature fuer vorwiegend Standbildszenen in Spielen; beim bewegten Spielen rueckt es (da zu wenig herausstechend) meist eher in den Hintergrund.

So gesehen dreht sich bei den meisten (also nicht Early Adopter oder Hobby-Enthusiasten, die ueber 1000 Euro fuer eine Grafikkarte bezahlen) die Gaming-Welt immer noch nicht um das RT-RT Feature (aufgrund der leistungsintensiven, fragwuerdigen Umsetzung und des Kartenaufpreises ohne Speicherlimitierungen) und ja, die meisten kaufen Grafikkarten (deutlich) unter 500 Euro und da lohnt sich RT-RT meistens nur bedingt bis gar nicht, egal von welchem Chipentwickler.

Ich bin 'mal gespannt, ob die RTX 5080 mindestens 20 GB bekommen wird und im Preis (deutlich unter 1000 Euro zum Marktstart) wieder angepasst werden wird, denn dann koennte die Karte fuer mich interessant werden, aber der Glaube daran fehlt mir leider ;).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Redundanz und Cleanor
unter 500€ gibts außerdem nur die 8GB Vram bei vielen Modellen
may be, das Die dann mit FG net immer reichen
 
Schade, jetzt geht es wieder los und die "Erde ist doch eine Scheibe aka RT ist böse weil es auf meiner HW nicht läuft und eh nicht toll aussieht" Fraktion ist entweder von der Bollerwagentour zurück oder aufgewacht.

Was man hier in den letzten Beiträgen wieder an BS lesen kann, ich kann mich noch nicht entscheiden ob witzig oder ..... dumm! Aber das ist so wie in anderen Bereichen des Lebens, da gibt es die Porsche-Killer und andere Fraktionen die mit einem Bruchteil des Preises des Originals, schneller schöner und per se besser sein wollen und alle die das Original kaufen ja dumm sind, da ja viel zu viel Geld für das Erlebnis ausgegeben.

Komisch ist es nur dann, wenn auf einmal die Kohle da ist um das zu kaufen was man eigentlich schon immer gerne haben wollte oder der bevorzugte Hersteller das Feature nun auch vernünftig anbietet, ändert sich der Ton, und he habe doch immer gesagt klar leben wir auf einer Kugel.

So ist es mit RT, war es mit Tessellation, G-Sync und DLSS usw.
NV versteht es schon mit Innovationen AMD von einer Kriese in die nächste zu treiben. Die armen AMD Jünger haben kaum eine Pause die sie zum Spielen nutzen könnten da sie immer wieder erklären müssen, dass man die, die Innovationen, ja eigentlich überhaupt nicht braucht (zumindest so lange bis die eigenen HW das kann) Das ganze nimmt zum Teil schon religiöse Züge an und man merkt, dass man in einem Beamten-Staat lebt wo Änderungen und Fortschritt gleich gesetzt werden mit Teufelswerk, ach und ja wenn man die dann akzeptiert, "die Innovationen", dann dürfen sie natürlich nichts kosten, wäre ja noch schöner weil brauchen tuts ja keiner........haben wills aber jeder.

IRONIE aus :-)
 
  • Gefällt mir
Reaktionen: Pro_Bro
  • Gefällt mir
Reaktionen: handy.dealer
Die Daten zur Leistungsaufnahme der RTX 4070, speziell unter Teillast in 1440p, sind merkwürdig. In eurem eigenen Test mit Doom und in meinem mit Hogwarts Legacy und PUBG ist die RTX 4070 einer RTX 3070 haushoch überlegen, was die Effizienz angeht. Wie kann es zu dem Ausreißer kommen?
 
Sardok schrieb:
Könntest du vielleicht einmal das Leistungsprofil Energiesparen vom Amdgpu Treiber aktivieren (z. B. mit CoreCTRL). Es würde mich sehr interessieren, ob die Leistungsprofile bereits mit der 7000er Serie funktionieren und ob dann der Verbrauch damit nochmals sinkt.
Mit CoreCTRL versucht: "Energiesparen" verbraucht 60W Idle, während die anderen Modi 40W verbrauchen. Wenn ich das Powertarget bei "Energiesparen" auf 1 setze kommt er auch wieder auf 40W.
In Spielen sieht das dann anders aus, da ist bei Energiesparen deutlich weniger FPS zugange.
 
  • Gefällt mir
Reaktionen: Sardok
Skotty schrieb:
Mit CoreCTRL versucht: "Energiesparen" verbraucht 60W Idle, während die anderen Modi 40W
Vielen Dank fürs ausprobieren. :)

Das ist doch verrückt. Meine RX 5700 Karte verbraucht mit und ohne Energiesparplan auf 120 Hertz ca. 14 Watt im Idle. Aber manchmal spare ich mit mit diesem Profil zusätzlich Strom.

Meinst du mit der Einstellung Power Target, die maximale Leistungsaufnahme?

Könntest du für mich bitte noch testen, ob die maximale Leistungsaufnahme per CoreCTRL verringert werden kann und diese Einstellung wirklich die maximale Aufnahme begrenzt. Sind weniger als 10 % Einstellbar?
 
Sardok schrieb:
Meinst du mit der Einstellung Power Target, die maximale Leistungsaufnahme?

Könntest du für mich bitte noch testen, ob die maximale Leistungsaufnahme per CoreCTRL verringert werden kann und diese Einstellung wirklich die maximale Aufnahme begrenzt. Sind weniger als 10 % Einstellbar?
Ja das meine ich.

Und ich hab eben mal in einem Spiel die max. Leistungsaufnahme stark gesenkt. Ich hatte deutlich weniger FPS und ein sehr hohen Input-Lag. Weniger als die 50W waren aber nicht drin. Die GPU genehmigt sich immer diese 40-45W Grundlast, egal was ich mache (außer die Bildwiederholrate runterstellen).
 
The Witcher 3 haut ja ganz schön rein für AMD beim Rasterizing besonders bei RDNA 2 und älter. Warum so ein alter, schlecht optimierter Titel im Test ist?
 
Die ausführlich betrachtete Leistungsaufnahme im idle hat mich besonders interessiert. Danke dafür.
 
No Escape schrieb:
Guten Morgen, was ich nicht ganz verstehe, warum Du nicht schaust, wie sich Dein System im Verbrauch mit den Zwischenlösungen verhält. Es gibt ja auch noch 120, 100 und 75HZ.

Der Test ist super, aber selber das eigene System austesten ist doch das Optimum.
Ich habe die Befürchtung, dass AMD uns noch lange warten lässt oder gar nichts mehr kommt, ~ halbes Jahr ist jetzt schon verdammt lang. Ich hoffe, ich liege daneben.
Hab Zwischenstufen probiert, aber hab mich jetzt für die 60Hz-Variante beim Moni und 58 FPS im Treiber (vsync on) entschieden Bei den Spielen, die ich derzeit spiele (Black Dessert, Diablo, Star Was Jedi: Survivor u. Dead Stranding, ab und zu guck ich auch mal in Cyberpunk rein) ist diese Einstellung völlig ausreichend und der PC säuselt wieder sehr leise neben mir, auch bei stundenlangem Zocken. Bleibt jetzt vorerst so.
 
DerRico schrieb:
wobei es dafür ja den HWU-Test mit ausfühlichem Video gab.
Ein Vid das mit unoptimierten Release Versionen, mit Einstellungen die nur darauf ausgelegt sind VRam Last zu erzeugen, ist also der heilige Gral.
Es ist ja nicht so, daß es nicht widerlegt wäre.

DerRico schrieb:
Ob 7900xt oder 70ti ist da ja eigentlich mittlerweile vollkommen egal. Die Verbesserungen der RDNA 3-generation, die ich selber von der Hardwareseite als nicht besonders relevant gesehen hatte, zahlen sich mittlerweile wohl doch in neueren Spielen aus. Sehr cool, für die AMD-Fraktion.
Auf der anderen Seite findest Du es vollkommen in Ordnung, dass Raytracing zusammengestutzt wird.
Am Ende stellt man sich halt die Frage...warum ist es kein Problem bei einer 1000€+ AMD Karte die Settings anzupassen, während bei einer 4-500€ Nvidia Karte alles max sein muss oder soll.

Mal Test gegen Realität
Die RX 7900 XTX ist hier auf Augenhöhe mit einer RTX 3080
CB CP.png

...und das was ein RX 7900 XT User im direkten Vergleich feststellen muss....selbst eine RTX 3070 ist locker schneller

User.png.jpgnativ.jpg

Den Test ansich, als Spieletest, finde ich schon in Ordnung...ich passe ja in der Realität meine Spiele auch an.
Man sollte halt nicht den Fehler begehen den Test als Leistungs Test zu sehen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Pro_Bro und McTheRipper
rocka81 schrieb:
The Witcher 3 haut ja ganz schön rein für AMD beim Rasterizing besonders bei RDNA 2 und älter. Warum so ein alter, schlecht optimierter Titel im Test ist?
Das Spiel ist halt bekanntermaßen sponsored-by-Nvidia, daher der vergleichsweise FPS-Abfall bei AMD-Karten.

Aber schlecht optimiert? Sehe ich nicht so, eher im Gegenteil. Ich habe mit einer 8GB-Karte von AMD (Vega) über 200h auf der Uhr und dabei in WQHD und geeigneten Reglerstellungen und HD-Texturen immer 50-60 FPS erreicht. Für ein Spiel dieser Art ausreichend. Oder umgekehrt formuliert: Nachdem ich dieses Settings gefunden hatte, haben mich die FPS fast nie mehr interessiert.

Das Spiel ist mit im Parcour, weil es Ende letzten Jahres RT nachträglich "reingepatched" bekam und dadurch wieder ein interessantes Testobjekt geworden ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: scheru
@DaHell63 Was genau bitte sind die zweiten Grafiken im Detail? Hast du gelesen das CB im neuen Grafiktest eben nicht alles auf Max bei RT stellt. Ich gehe mal von aus gerade bei Cyberpunk ist das so...
Sind das nur die Leistungswerte von Cyberpunk?
Ich sag ja NV hat an dem Titel irgendwas gedreht... Aber das ist ein anderes Thema...
 
ComputerJunge schrieb:
Ich habe mit einer 8GB-Karte von AMD (Vega) über 200h auf der Uhr und dabei in WQHD und geeigneten Reglerstellungen und HD-Texturen immer 50-60 FPS erreicht.

Kann ich bestätigen lief super auf meiner Vega. Lustigerweise könnte ich schwören dass die Bildqualität besser war als auf der 2070 super auf die ich leider wegen Cuda wechseln musste.
Obwohl das vermutlich Einbildung ist^^
 
  • Gefällt mir
Reaktionen: ComputerJunge
EMT schrieb:
Bitte kombiniert die Darstellung von Durchschnitt und 1% Perzentil, wie z. B. bei Techspot.
Macht PCGH auch so.
Ich finds unübersichtlicher, weil das Ranking zwischen den beiden Metriken durchaus unterschiedlich ausfallen kann und man durch zwei getrennte Diagramme die Reihenfolge für beide sofort sieht.
 
Bei PCGH kannste drauf klicken und wählen ob nach min oder avg.Fps sortiert werden soll.

Man könnte vllt. mal nen extra Artikel mit einem Bsp. GameXYZ machen und die minFps nochmal beleuchten,
vllt wäre eher untere 5% interessanter, wenn die 1% so selten auftreten sagts fast Nix übers Gameplay aus.
(weiss gar net, ob Vsync die 1% teilweise wegbügeln kann mittels Double/Triplebuffer)

https://www.overclock3d.net/reviews..._-_improved_performance_and_new_pc_settings/2
(mit 5% Angabe)
 
Zuletzt bearbeitet:
Zurück
Oben