Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test 3DMark Time Spy: Bestenliste mit über 110 Grafikkarten der Jahre 2012 bis 2025
Ich habe meine 7900XTX getestet und verglichen mit anderen Ergebnissen finde ich die Leistung deutlich niedriger. Gibt es Ideen woran es liegen könnte bzw. was ich falsch eingestellt habe? Ich habe das Leise-BIOS per Schalter aktiviert, aber das sollte ja nicht diesen riesigen Unterschied verursachen.
Update:
Hat sich erledigt:
Ich hatte im AMD Treibermenü noch die FPS limitiert..
Update:
Hat sich erledigt:
Ich hatte im AMD Treibermenü noch die FPS limitiert..
Zuletzt bearbeitet:
- Registriert
- Nov. 2002
- Beiträge
- 9.508
Artikel-Update: Änderungshistorie
Ab sofort finden sich auch die Ergebnisse der AMD Radeon RX 9060 XT 8 GB (Test) in den Diagrammen wieder.
Ab sofort finden sich auch die Ergebnisse der AMD Radeon RX 9060 XT 8 GB (Test) in den Diagrammen wieder.
[Tabelle: Zum Betrachten bitte den Artikel aufrufen.]
- Registriert
- Okt. 2022
- Beiträge
- 2.755
Mit den neusten nVidia Treiber werden meine Werte immer schlechter.
Seit einigen Monaten sind mit jeder Treiberversion ein paar % weniger da. Dann war noch reBAR durch einen Treiberbug deaktiviert obwohl es überall sonst an war, was 10% Leistung kostet.
Nach dem Wechsel zum 9800X3D hat sich da auch nichts groß getan. Teils waren meine Scores mit den neusten Treiber für die GPU sogar schlechter als mit dem 5800X3D.
aklaa
Admiral
- Registriert
- Apr. 2009
- Beiträge
- 9.202
P/L finde ich persönlich sehr aussagekräftig.
So viel Mühe bei dem Vergleich zum Anschluss, Dankeschön!
Bin mit meiner RX9060XT 16GB sehr zufrieden 16k Punkte. Gut 50€ drauf bezahlt für mehr RAM, aber ganz ehrlich 8GB vRAM ist mir nicht zeitgemäß 2025. Paar Spiele gestartet und schon sind 8gig weg, da wird der 3DMark im Hintergrund auch nicht starten. Wer 8GB Karten kauft und dann meckert ist selber schuld.
So viel Mühe bei dem Vergleich zum Anschluss, Dankeschön!
Bin mit meiner RX9060XT 16GB sehr zufrieden 16k Punkte. Gut 50€ drauf bezahlt für mehr RAM, aber ganz ehrlich 8GB vRAM ist mir nicht zeitgemäß 2025. Paar Spiele gestartet und schon sind 8gig weg, da wird der 3DMark im Hintergrund auch nicht starten. Wer 8GB Karten kauft und dann meckert ist selber schuld.
k4b4 r0xx schrieb:liegt es dann nur an meiner älteren CPU? Ryzen 7 3700x
Die Werte sind immer ein Zusammenspiel aus CPU und GPU
deswegen verglicht CB auch alles auf dem gleichen PC
hilft nur bei den Benchmarks auf der 3d Mark Website zu vergleichen
aklaa
Admiral
- Registriert
- Apr. 2009
- Beiträge
- 9.202
Nein es liegt an PCIe 4.0! Deswegen habe ich ich mir keine 9070 gekauft wegen dem Leistungsverlust. Da müsste man komplett auf AM5 umsteigen und das ist teuer.k4b4 r0xx schrieb:Hmm.
Hier bringt die 9070XT - 29.464 Punkte
Meine 9070XT bringt - 21368 punkte.
liegt es dann nur an meiner älteren CPU? Ryzen 7 3700x
MehlstaubtheCat
Vice Admiral
- Registriert
- Sep. 2013
- Beiträge
- 6.261
@aklaa Das ist nicht korrekt!
PCI 4 zu 5 macht bei einer 9070XT in etwa 2-4 % an Leistung aus!
Bei @k4b4 r0xx ist die CPU die etwas Bremst!
Wenn der Arbeitsspeicher vielleicht sogar nicht mit dem Takt läuft,
für den er bestimmt ist, dann sehen, die Ergebnisse so aus!
(Ohne XMP 2133MHz)
Hab ich jeden Tag aufs neue vor meinen Augen!
Gruß
Mehlstaub
PCI 4 zu 5 macht bei einer 9070XT in etwa 2-4 % an Leistung aus!
Bei @k4b4 r0xx ist die CPU die etwas Bremst!
Wenn der Arbeitsspeicher vielleicht sogar nicht mit dem Takt läuft,
für den er bestimmt ist, dann sehen, die Ergebnisse so aus!
(Ohne XMP 2133MHz)
Hab ich jeden Tag aufs neue vor meinen Augen!
Gruß
Mehlstaub
@MehlstaubtheCat
hatte aus versehen gesamtpunkte anstatt Grafikpunkte angegeben
Sind 27627 anstatt 29464 Punkte
hatte aus versehen gesamtpunkte anstatt Grafikpunkte angegeben
Sind 27627 anstatt 29464 Punkte
MehlstaubtheCat
Vice Admiral
- Registriert
- Sep. 2013
- Beiträge
- 6.261
Ja schon gesehen!
Schau mal, ob bei dir dein Arbeitsspeicher richtig läuft!
CPU Z > Memory und SPD
ZenTimings davon auch ein Screenshot, dann wissen wir es genau.
Gruß
Mehlstaub
Schau mal, ob bei dir dein Arbeitsspeicher richtig läuft!
CPU Z > Memory und SPD
ZenTimings davon auch ein Screenshot, dann wissen wir es genau.
Gruß
Mehlstaub
Hallo,
aktuell nutze ich eine RTX 3080 Ti in meinem System und spiele auf einem 31,5" 4K QD-OLED mit 240 Hz.
Nach meiner Einschätzung lohnt sich ein Upgrade frühestens ab einer RTX 5080 – alles darunter wirkt leistungstechnisch eher wenig attraktiv.
Bisher habe ich bei meinen Grafikkarten-Upgrades immer mindestens rund 70 % Leistungszuwachs mitgenommen: zuerst von der GTX 1070 auf die RTX 2080, danach auf die 3080 Ti.
aktuell nutze ich eine RTX 3080 Ti in meinem System und spiele auf einem 31,5" 4K QD-OLED mit 240 Hz.
Nach meiner Einschätzung lohnt sich ein Upgrade frühestens ab einer RTX 5080 – alles darunter wirkt leistungstechnisch eher wenig attraktiv.
Bisher habe ich bei meinen Grafikkarten-Upgrades immer mindestens rund 70 % Leistungszuwachs mitgenommen: zuerst von der GTX 1070 auf die RTX 2080, danach auf die 3080 Ti.
CountSero
Lieutenant
- Registriert
- Jan. 2020
- Beiträge
- 573
k4b4 r0xx schrieb:@MehlstaubtheCat
hatte aus versehen gesamtpunkte anstatt Grafikpunkte angegeben
Sind 27627 anstatt 29464 Punkte
Hier scheint tatsächlich noch etwas anderes mit rein zuspielen.
Ich nutze ebenfalls ein PCIe-4.0-System mit einem Intel Core i7-14700 und erreiche mit meiner RX 9070 (none XT) bereits einen Graphics Score von 27 210 Punkten. Das entspricht nur etwa 1,5 % Unterschied zu deinem Ergebnis mit der RX 9070 XT.
Eigentlich würde ich hier eher was in Richtung 10 % erwarten, sofern du hier nicht die Karte selber limitiert hast.
https://www.3dmark.com/spy/56577507
Deine Aussage ergibt so keinen wirklichen Sinn – insbesondere, da sie ohne Begründung erfolgt.Sebbi schrieb:wie diese Tabelle wohl ohne Fake Frames, KI Kram etc., also reiner Grafikkartenleistung aussehen würde ....
3DMark verwendet eine eigene Render-Engine mit spezifischem Renderpfad und fest definierten Parametern für jeden einzelnen Test.
Im Fall von Time Spy basiert der Benchmark auf DirectX 12 und nutzt Low-Level-Features wie:
- Multi-Threaded Command Buffer Recording
- Explicit Resource Management
- Asynchronous Compute
Technologien wie DLSS, FSR, XeSS oder Frame Generation (MFG) werden vom Renderpfad nicht unterstützt und können daher auch nicht einfach per Treiber „erzwungen“ werden.
UL (die Entwickler von 3DMark) legt großen Wert auf Integrität: Manipulationen durch Treiber oder Hardware-Modifikationen werden in der Regel zügig erkannt und entsprechende Ergebnisse als ungültig markiert.
Außerdem gibt es für Features wie DLSS, FSR oder XeSS eigene Feature-Tests – sowie Port Royal für DX12 mit Raytracing, Speed Way für DX12 Ultimate und Steel Nomad für einen reinen Rasterizer-Test unter DX12 oder Vulkan.
@CountSero
Hmm, da haste recht. Dann gucke ich mal. Danke
Spiele im Moment Doom 2016, da merke ich das nicht.
Hmm, da haste recht. Dann gucke ich mal. Danke
Spiele im Moment Doom 2016, da merke ich das nicht.
MehlstaubtheCat
Vice Admiral
- Registriert
- Sep. 2013
- Beiträge
- 6.261
Ähnliche Themen
- Antworten
- 341
- Aufrufe
- 42.097
- Antworten
- 238
- Aufrufe
- 28.860