Test Grafikkarten 2023 im Test: GeForce-, Radeon- & Arc-Benchmarks im neuen Testparcours

blackiwid schrieb:
...und kommt mir nicht mit Steam Statistiken die Leute mit den 1080p Monitoren spielen oft auch mit Intel IGP...
Gibt es für das "oft" irgendeine Erhebung oder ist das dein Bauchgefühl aus dem Bekanntenkreis? Der Steam Survey sammelt nicht nur Informationen zur Auflösung, sondern auch verwendeter Grafikkarte.

Die Intel (U)HD 520/620/Graphics und wie die alle heißen, sind separat dort aufgeführt. Das höchste der Gefühle ist die UHD 620 mit 0,53 %, die in der 8000er und 10000er Generation zu finden war. Damit liegt man etwas über den Besitzern einer RTX 3090. Als "oft" würde ich das nicht bezeichnen, im Vergleich erfassten 1080p Auflösung mit über 64 %.
 
Angiesan schrieb:
die Innovationen, ja eigentlich überhaupt nicht braucht (zumindest so lange bis die eigenen HW das kann)
Das muss halt jeder für sich selbst entscheiden. Klar, dieses penetranten Fanboys die du erwähnst gibt es... allerdings auf beiden Seiten.

Ich habe seit der 980 Ti dauerhaft nVidia. Aber nicht wegen RT, sondern wegen der Leistung generell. RT Spiele habe ich glaube ich zwei. Davon spiele ich eins, wenn überhaupt, mal ein paar Stunden im Jahr :)

RT ist für MICH optisch jetzt kein Gamechanger. Auf Screenshots schön anzusehen, aber im Game wenn ich mich die ganze Zeit bewege fällt mir das nicht soooo extrem auf. Zumindest nicht so stark das ich unbedingt eine 4090 kaufen würde hätte AMD eine GPU auf dem selben Niveau (ohne RT).
 
  • Gefällt mir
Reaktionen: Cleanor
NguyenV3 schrieb:
Gibt es für das "oft" irgendeine Erhebung oder ist das dein Bauchgefühl aus dem Bekanntenkreis? Der Steam Survey sammelt nicht nur Informationen zur Auflösung, sondern auch verwendeter Grafikkarte.

Die Intel (U)HD 520/620/Graphics und wie die alle heißen, sind separat dort aufgeführt. Das höchste der Gefühle ist die UHD 620 mit 0,53 %, die in der 8000er und 10000er Generation zu finden war. Damit liegt man etwas über den Besitzern einer RTX 3090. Als "oft" würde ich das nicht bezeichnen, im Vergleich erfassten 1080p Auflösung mit über 64 %.
Dann bezweifel ich die Statistiken als ob IGPs an Computern nur 8,6% aus machen die Ark Karten dürften daran nur nen minimaler Teil sein, kommen in der separaten Auflistung nicht vor, also wenn die zahlen stimmen würden wären das nur 8,6% allerdings kommt natürlich auch noch AMD APUs / IPGs dazu, die hab ich zwar nicht explizit erwähnt, aber ich denke es ist klar das die mit gemeint sind, dachte nur der Anteil bei Intel sei groesser daher wären allerdings zumindest AMD Radeon Graphics nur ca. 2%.

Von daher muss ich das wohl berichtigen, aber die GTX 1650 sagt auch viel aus, wobei mich da ne Aufschlüsselung nach Notebook / Desktop Variante interessieren würde. Kenn mich mit Nvidia Karten nicht so aus, die Karte ist aber nochmal 23% lahmer (desktop vorausgesetzt) wie ne RX 480, steckt sowas in vielen Fertig-pcs oder Fertig-notebooks kann mir nicht vorstellen warum jemand aktiv in nem Eigenbau PC solch eine Karte kaufen sollte, aber lass mich gerne belehren? Die 8gb rx 480 gibts ja teils schon für 40-60 Euro geschenkt, wieso sollte man da ne schlechtere Karte kaufen noch. Und dann aber 500 Euro für Spiele auf Steam aus geben :D

Aber ja geschenkt wie gesagt die Aussage mit den IPG muss ich dann wohl anpassen, mein Punkt ist aber das diese 60% nicht mit >400 Euro Karten (stand heute) zusammen kommt, diese kommen durch 30-300 Euro Karten zustande selbst wenn ich Neupreise noch mit ein beziehe, wobei ich persönlich nicht verstehen kann wieso man heute NEU ne 3070 fuer >400 kaufen sollte wenn es die gebraucht auch fuer 300 Euro gibt, aber geschenkt... die meisten kosten auch weniger 300 Euro neu, sofern es sie überhaupt noch gibt.

Also ok es sind zum großteils eben nicht IGPs sondern (teils extrem) langsame und oder alte Grafikkarten.
Ich persönlich wuerd da eher zu ner AMD APU greifen bevor ich irgend so ne Uralt Stromfresser Karte hätte die noch 15% schneller ist aber dafür 100Watt extra braucht.
 
also ich denke, dass bevor ich 500€ mehr für ne Graka ausgebe, die 100w weniger im peak nimmt, ich die 500€ in ein Balkonkraftwerk stecke und damit nicht nur den Stromhunger der Graka, sondern gleich meinen ganzen Strombedarf mit kompensiere. Zocken geht dann aber nur, wenn die Sonne scheint :)
 
  • Gefällt mir
Reaktionen: Andreas_AUT
blackiwid schrieb:
Dann bezweifel ich die Statistiken als ob IGPs an Computern nur 8,6% aus machen die Ark Karten dürften daran nur nen minimaler Teil sein, kommen in der separaten Auflistung nicht vor...
Die machen natürlich deutlich etwas aus - allerdings müssen die auch aktiv sein. Wenn du eine Intel CPU mit iGPU hast, wird die deaktiviert, sobald noch eine dGPU eingebaut wird. Also zählt Steam richtigerweise auch die dGPU. Im Laptop wird auf die dGPU umgeschaltet, sobald gezockt wird. Auch hier wird richtigerweise die dGPU abgefragt, auch wenn eine Intel UHD im Desktop/Office/Surfen aktiv ist.

blackiwid schrieb:
... wobei mich da ne Aufschlüsselung nach Notebook / Desktop Variante interessieren würde
Bei der RTX 3060/70/80 usw. erkennt man es z. B. an dem Zusatz "Laptop". So steht es auch im Treiber drin. Alles mit Max-Q gehört auch zum Laptop. Die RTX 4060er Laptop sind auch schon drin

blackiwid schrieb:
Die 8gb rx 480 gibts ja teils schon für 40-60 Euro geschenkt, wieso sollte man da ne schlechtere Karte kaufen noch. Und dann aber 500 Euro für Spiele auf Steam aus geben :D
Wenn die vorher mit Nvidia zufrieden waren, dann bleiben die auch dabei. Und dann gebraucht... wenn dann der Verkäufer nicht mal weiss, was der da eigentlich verkauft. Vermutlich wird die 4050/60 wieder für die Masse sein, wobei Besitzer einer 3060 12GB nicht die Zielgruppe sein werden.

blackiwid schrieb:
...wobei ich persönlich nicht verstehen kann wieso man heute NEU ne 3070 fuer >400 kaufen sollte wenn es die gebraucht auch fuer 300 Euro gibt...
Vieles läuft wohl über Komplett-PCs. Wenn es nach Mindfactory ginge, hätte AMD schon längst im CPU (sehr deutlich) und GPU Bereich alle Marktanteile für sich beansprucht.

blackiwid schrieb:
Ich persönlich wuerd da eher zu ner AMD APU greifen bevor ich irgend so ne Uralt Stromfresser Karte hätte die noch 15% schneller ist aber dafür 100Watt extra braucht.
Wegen Stromersparnis lohnt sich nur selten eine Neuanschaffung. 100 Watt Ersparnis ergeben bei 4 Stunden täglich (365 Tage!!!) zocken ungefähr 50 Euro pro Jahr. Ziemlich mau. Und der Durchschnittsnutzer müsste dann noch zu AMD greifen. Unwahrscheinlich, wenn er vorher mit Intel zufrieden war.
 
NguyenV3 schrieb:
Wenn die vorher mit Nvidia zufrieden waren, dann bleiben die auch dabei.
Naja es gibt sicher ein harter Kern der ist total Markentreu egal was passiert, aber alle anderen sind das nicht. Und es ist auch egal ob sie zufrieden waren, AMD hat massiv Marktanteile gewonnen seit sie bessere CPUs anbieten, und das obwohl natürlich Intel mit Preissenkungen, Brechstange und Marketing alles versucht hat das zu verhindern. Natürlich hat dann nicht AMD sofort 100% weil wahrscheinlich 90% der Kunden ihre PCs teils auch mehrere noch über 3 Jahre alt sind und ja natürlich steigen auch nicht alle um. Intel ist jetzt auch nicht grad Bulldozer Level abgeschlagen, aber das wäre ja so wie wenn man glauben würde das die meisten Leute ihr Leben lang nur 1 Auto Marke fahren würden.


NguyenV3 schrieb:
Und dann gebraucht... wenn dann der Verkäufer nicht mal weiss, was der da eigentlich verkauft. Vermutlich wird die 4050/60 wieder für die Masse sein, wobei Besitzer einer 3060 12GB nicht die Zielgruppe sein werden.
Das kommt halt drauf an, es wurden auch schon zu guten Zeiten des Athlons die ersten 64bit oder so teils die gekauft klar im Mediamarkt nicht. Wobei Prozessor schwieriger ist als ne Grafikkarte, da z.B. bei Laptops oft AMD Cpus nur mit Schrott-komponenten Angeboten wird, ne Grafikkarte können selbst Leute die sonst kein PC zusammen bauen können oft noch wechseln wenn sie schon ein richtigen PC haben statt nem Notebook.
NguyenV3 schrieb:
Vieles läuft wohl über Komplett-PCs. Wenn es nach Mindfactory ginge, hätte AMD schon längst im CPU (sehr deutlich) und GPU Bereich alle Marktanteile für sich beansprucht.
Naja die "Flotte" wird halt nicht alle 2 Jahre ersetzt, daher selbst wenn 100% bei MF kaufen würde, wäre AMD immer noch hinten.

NguyenV3 schrieb:
Wegen Stromersparnis lohnt sich nur selten eine Neuanschaffung. 100 Watt Ersparnis ergeben bei 4 Stunden täglich (365 Tage!!!) zocken ungefähr 50 Euro pro Jahr. Ziemlich mau. Und der Durchschnittsnutzer müsste dann noch zu AMD greifen.

Nunja wir reden hier nicht von Leuten die sich 0 Gedanken machen sondern Leute die hier Diskutieren und nicht blind irgendwas kaufen weil ein flashy Sticker auf irgendwas drauf ist.

Die meisten dieser Daus greifen doch eh zu Konsolen. Aber ja geschenkt, ich schrieb ja dazu "ICH PERSÖNLICH" das es Volldeppen gibt die irgendwie mit IGP nicht zufrieden sind sich aber für 5 Euro ne Grafikkarte kaufen und dann 500 Euro für Games ausgeben... ist ja ok... ICH PERSÖNLICH versteh es deshalb nicht, und muss es auch nicht verstehen denk ich.

Ich mein ich bin broke und sparsam weil ich auch mich selten aufraffen kann zu spielen und nicht auf die 4h komme, aber auch ich hab schon 2 Grafikkarten gehabt die besser als diese schrott GTX 1065 ist, einmal ne rx 480 die ich im Mining boom für ca. 350 weiter verkauft hab und dann hab ich jetzt irgendwann ne RX 5600 6gb gekauft. also als jemand der fast nimmer spielt und broke ist, hab schon 2 Karten gehabt die besser als diese Schrottkarte ist. Kann nicht verstehen wie man noch Geld für Spiele ausgeben kann (was ich nimmer tu) aber mit solch einer Museums Lowend Karte unterwegs sein kann.

Zumal eben nen System ohne Grafikkarte auch viele andere Vorteile hat, im Hochsommer kann mans noch benutzen ohne ne Sauna zu erzeugen, man kann auf ITX oder sowas umsteigen oder ein Notebook. Also es ist ja nicht nur die Stromersparnis die ein IGP switch mit sich bringt. Aber zurück zu dem nicht aufrüsten, wenn man beim pc vielleicht 100 Euro pro Jahr Gesamtkosten hat nur fürs Gaming / Strom und sagen wir 50 Euro pro Jahr auf Steam an spielen blecht, dann schafft man es nicht alle 3 Jahre 150 Euro für ne neue Grafikkarte aus zu geben zumal für die alte wohl auch noch 50 Euro easy kriegst nach 3 Jahren, also 150 Euro pro Jahr für Strom und Spiele sind drin, aber 33 Euro für neue Grafikkarte pro Jahr nicht?
 
Zuletzt bearbeitet:
^^ Irgendwie driftet die Diskussion immer weiter in irgendwelche Gefilde ab. Was hat das alles mit dem neuen Testsystem von CB zu tun, frag ich mich ernsthaft?
 
GerryB schrieb:
Bei PCGH kannste drauf klicken und wählen ob nach min oder avg.Fps sortiert werden soll.
Ich weiß, und hier hab ichs direkt untereinander ohne dass ich irgendwas umstellen muss, daher finde ich es hier übersichtlicher^^

GerryB schrieb:
Man könnte vllt. mal nen extra Artikel mit einem Bsp. GameXYZ machen und die minFps nochmal beleuchten,
vllt wäre eher untere 5% interessanter, wenn die 1% so selten auftreten sagts fast Nix übers Gameplay aus.
Hier sind es sogar die unteren 0.2%, gerade weil man mit 1% zuviel ignoriert, was als störend empfunden werden kann, wenn es zwischen 1% und 0.2% zu große Differenzen gibt.

Wenn es um eine 5 Minuten Aufnahme gehen würde, würde ich sogar mit den 5% mitgehen, aber Benchmarks hier dauern idR nur 20-25 Sekunden.
Wenn man dort 1-2 Spikes hat, die man spürt, dann hat man die eben potenziell alle 10s und die tauchen dann möglicherweise beim 1% Perzentil nicht auf, beim 0.2% schon eher.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: GerryB
Vielen Dank für den Test. Jetzt haben sich meine Vermutungen bestätigt und es hat sich voll erwiesen, dass der Kauf einer 7900XT Pulse eine tolle Entscheidung war. Die Performance von RDNA 3 war schon im ersten CB Test vor 6 Monaten nicht schlecht, aber sie ließ dennoch zu wünschen übrig. Es ließ sich jedoch erahnen, dass da in Zukunft viel mehr Performance drinstecken würde. Der erste CB Test zeigte schon damals, dass die Architektur auf neuere Spiele zugeschnitten war. Außerdem zeigte der Test bei Techpowerup damals schon ein besseres Leistungsverhältnis zu Nvidia und der vorherigen AMD Generation als der CB Test.

Jetzt endlich der neue Testparcours, mit neuen Spielen und Treibern, und nachdem ich die Performanceratings gesehen habe, kommt mir ein Lächeln aufs Gesicht. Zugewinne in Rasterizer, lässt die 4070ti und 3090ti glatt hinter sich, mit 4080 in Reichweite. In Raytracing aber, eine regelrechte Explosion, auf 4070ti oder 3090ti Niveau. Zudem lässt sich die Karte gute 12 % übertakten mit Undervolt und ist damit in Rasterizer auf Augenhöhe mit der RTX 4080. Und mit 850 Euro billiger als all diese Karten.
Dazu kommt noch bald das große Treiber-Update, welches bei jeder neuen Kartengeneration um die 10 % rauskitzelt. Ich sehe die 4080 schon im Rückspiegel, zumal auch immer mehr neue Spiele rauskommen, die Radeon besser liegen. Ist schon toll, was AMD da abliefert.

In den B-Noten ist die Karte auch fantastisch, gerade bei meinem 1440p Monitor mit 165 Hz. 12W im idle Desktop und im FPS-Limit praktisch die effizienteste Karte überhaupt. Habe auch getestet mit 4K Fernseher, bei 120 Hz geht es nicht über 15 W im idle Desktop. Ich weiß nicht, was an den ganzen UHD 144 Hz Geschichten dran ist, aber das richtet schon der nächste Treiber.

Nochmals, danke für den Test, ich könnte nicht zufriedener sein.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Cleanor
Der Gebrauchtmarkt ist mittlerweile wieder recht intakt. 3090 custom Herbst 2022 mit Rechnung 650€.
 
Danke Für den Test.

Also Alles beim Alten Nvidia nicht unter der XX80 Ti Kaufen wegen Vram gurke
und AMD kRatz sich jetzt über Die Treiber wider nach oben.

Eigentlich alles wie Jedesmal.

Bin Unterm Strich Zufrieden hab beim Upgrade 2022 alles richtig gemacht auf 3d cache gesetzt
und Trotz Miesen Strom Hunger bei den Killer Preis die 3090Ti Zentraslheizung geschossen.

820 Euro Bezahlt und noch immer Jeder Karte im 800-1000 Euro Bereich Ebenwürdigt.
1850mhz gehen mit UV und 80% PT Somit ca 380 Watt Max verbrauch bei 4070Ti Leistung mit 3080 Ti verbrauch

Wobei ich Bei den Jetzigen preisen der 4090 die 1000 Euro drauf gepackt hätte ( 2500 waren mir zu Krank)
 
  • Gefällt mir
Reaktionen: scheru
Wolfgang schrieb:
Aber wären 2 verschiedene Ratings nicht vollkommen verwirrend? Da müsste man sich ja schon richtig mit den Artikel beschäftigen und nachlesen,...
Mit einer guten Überschrift für die Ratings wäre das nicht verwirrend. Wenn man es so lässt wie bisher, dann hat auch der Leser, der alles gelesen hat, nicht alle Informationen. Wenn ich mir jetzt das Rating aufmache, weiß ich nicht mal, welche Grafikkarte bei wie vielen Spielen und bei welchen genau abgestürzt ist. D.h. ich weiß nicht mal, wie oft da was gefaked wurde. Unter der betreffenden Grafikkarte steht im Rating nicht mal ein Hinweis, so wie ihr das bei anderen Sachen manchmal macht mit "Hinweis: 550 rpm" oder so was.

1684646562833.png


Unter jede Grafikkarte, die abgestürzt ist, gehört mindestens so ein Hinweis: "Abgestürtzt bei Spiel X, Y, und Z"
Dann weiß der Leser, aha, die 7600XT ist genau so schnell wie die 6700XT, wenn die den funktioniert, aber dennoch schlechter, den die ist bei 2 Spielen abgestürzt, was der 6700XT nicht passiert ist. Zumindest so lange ihr "Fake-Werte" für die abgestürzten Spiele verwendet, könnte man es so machen. Noch besser wäre es aber wie gesagt, gar keine Fake Werte zu verwendet und direkt zwei Rating anzubieten und mit einer guten Überschrift das Ganze klar zu machen. Aktuell ohne Hinweis im Rating ist es aber nicht mal für den aufmerksamen Leser transparent.
Ergänzung ()

Cleanor schrieb:
Habe auch Hybrid Graphics benutzt, ist sogar bei youtube sparsamer als per GPU und im Desktop evtl. 1-5Watt was dann aber bei mir unter Messtoleranz läuft (ob 11, 12, 14, 16 Watt)
Für Hybrid Graphics muss man so weit ich weiß den Monitor an den Mainboard-Anschluss anschießen. Der Videosignal von der externen Grafikkarte wird also über die Interne GPU durchgeschleift. Dies bedeutet zusätzliche Latenz. Die Leistung wird also schlechter. Ich habe jetzt keinen aktuellen Test gesehen, aber bei den alten Tests war das so. Von daher ist Hybrid-Graphics etwas für mobile, wo es auf den letzten Watt angeht, aber für Desktop eher nicht so...
 
Zuletzt bearbeitet:
Convert schrieb:
Für Hybrid Graphics muss man so weit ich weiß den Monitor an den Mainboard-Anschluss anschießen. Der Videosignal von der externen Grafikkarte wird also über die Interne GPU durchgeschleift. Dies bedeutet zusätzliche Latenz. Die Leistung wird also schlechter. Ich habe jetzt keinen aktuellen Test gesehen, aber bei den alten Tests war das so. Von daher ist Hybrid-Graphics etwas für mobile, wo es auf den letzten Watt angeht, aber für Desktop eher nicht so...

Theoretisch kann da Latenz entstehen, habe aber keine gefühlt, wenn da nun 101 statt 100ms bei CS kommen und man gerade im Turnier spielt, da würde ich es wohl nicht machen, aber um mal eben Strom zu sparen und 15 statt 100 Watt zu haben und dafür einen unmerklichen Latenzteil (bevorzugt in SP Games) einbüßt wäre es m. M. nach verschmerzbar. (Habe PCIe 4 AM5 und GPU)

Habe in Dying Light 2 keinen Unterschied gemerkt. Dieses verbraucht bei mir übrigens im Betrieb 120-140Watt mit der 7900XT bei 4k (FSR Quali).

Da kann die GPU so schlecht nicht sein vom Verbrauch.

Theoretisch verliert man auch bei Lastwechseln im Subsystem Geschwindigkeit,trotzdem habe ich lieber meine Sachen im Idle bei wenig watt statt immer alles max zu befeuern.

MfG
 
  • Gefällt mir
Reaktionen: 0ldboy
Danke für den Test. Was mich besonders freut, ist die neue Messung bei max 60 fps.
Ergänzung ()

kmf schrieb:
Hab Zwischenstufen probiert, aber hab mich jetzt für die 60Hz-Variante beim Moni und 58 FPS im Treiber (vsync on)

Probier mal vsync on -schnell- aus, habe gefühlt besseres Ergebnis als mit allen anderen vsync on Einstellungen.
 
Zuletzt bearbeitet:
Andreas_AUT schrieb:
Weiß jemand warum die 6900xt fehlt?
Zieh doch selbst ~5% von der 6950xt ab oder nimm die 3080 pi mal Daumen als Anhaltspunkt für Rasterleistung. Hätte ich als Tester auch nicht extra rein genommen.
 
  • Gefällt mir
Reaktionen: Cleanor
0ldboy schrieb:
Dazu kommt noch bald das große Treiber-Update, welches bei jeder neuen Kartengeneration um die 10 % rauskitzelt.
Hast Du dafür Beispiele? Und hast Du evtl. auch eine Quelle zu dem großen Treiberupdate, das bald kommt? Bei einzelnen Spielen kann es vorkommen, dass es signifikante Verbesserungen gibt, wenn zu Release eines Spiels noch keine dafür angepassten Treiber zur Verfügung stehen. Dass ein Treiberupdate im Schnitt 10% bessere Performance über alle Spiele und Auflösungen liefert, habe ich weder bei AMD noch Nvidia jemals auch nur ansatzweise erlebt.

Noch zur Info: In diesem Test wird häufig mit ggü. älteren Tests reduzierten Settings gebencht, vor allem unter RT. Dadurch verlieren die Nvidia Karten ggü. den AMD Karten an Vorsprung unter Nutzung von RT. Mit Wundertreibern oder moderneren Spielen hat das weniger zu tun.
 
Zuletzt bearbeitet:
MoinWoll schrieb:
Hast Du dafür Beispiele? Und hast Du evtl. auch eine Quelle zu dem großen Treiberupdate, das bald kommt? Bei einzelnen Spielen kann es vorkommen, dass es signifikante Verbesserungen gibt, wenn zu Release eines Spiels noch keine dafür angepassten Treiber zur Verfügung stehen. Dass ein Treiberupdate im Schnitt 10% bessere Performance über alle Spiele und Auflösungen liefert, habe ich weder bei AMD noch Nvidia jemals auch nur ansatzweise erlebt.

Noch zur Info: In diesem Test wird häufig mit ggü. älteren Tests reduzierten Settings gebencht, vor allem unter RT. Dadurch verlieren die NVidia Karten ggü. den AMD Karten an Vorsprung unter Nutzung von RT. Mit Wundertreibern oder moderneren Spielen hat das weniger zu tun.
Wenn mich mein Gedächtnis nicht täuscht, gab es immer ein großes Treiberupdate zu jeder neuen Architektur, mit mehr Performance und neuen Features. Man braucht halt etwas Zeit um herauszufinden wie man das beste aus der neuen Architektur rausholt. Ich schätze mal, das große Update kommt zur gleichen Zeit wie die Freigabe von FSR 3.0. Und vielleicht wird es nicht 10%, sondern nur 5 von den Treiberanpassungen auf die Architektur, aber bei den 7900XTX Übertaktungen auf 3,4 Ghz sehe ich riesiges Potenzial, welches möglicherweise zum kleineren Teil auch ohne zusätzlichen Verbrauch freigeschaltet werden kann, sagen wir mal 5%, und 5+5 gleich 10 (ich habe z.B. CS:GO Problemlos mit 3,1 Ghz gespielt ohne große Verbrauchsteigerungen). Zudem gibt es jede Woche neue Spiele und neue Spiele liegen RDNA 3 erwiesenermaßen besser von der Performance her, also geht der Trend hier auch Richtung mehr Performance mit der Zeit.

Zu den Settings im Test würde ich sagen, hier wird mit klugen Settings gebencht. Settings die ein Feature, das sich nur in wenigen Spielen befindet, spielbar machen, auch für Nvidia. Das bessere Performancerating in RT ist teilweise ein Resultat der klügeren Settings, aber teilweise auch ein Resultat der neuen Treiber und neuen Spiele im Parcours.
 
  • Gefällt mir
Reaktionen: Redundanz
0ldboy schrieb:
Wenn mich mein Gedächtnis nicht täuscht, gab es immer ein großes Treiberupdate zu jeder neuen Architektur, mit mehr Performance und neuen Features. Man braucht halt etwas Zeit um herauszufinden wie man das beste aus der neuen Architektur rausholt.
Dein Gedächtnis täuscht dich nicht, es gibt Treiberupdates bei Nvidia und bei AMD.
Ende 2020 lag zum Beispiel die 6900xt 2% über der 3080. https://www.computerbase.de/2020-12/amd-radeon-rx-6900-xt-review-test/2/
Daran hat sich in den letzten 2,5 Jahren nicht viel geändert wie man an den aktuellen Tests jetzt sieht, 2% mehr oder weniger spielt nach der Zeit keine Rolle, wenn man irgendwann irgendwo zu wenig FPS hat rettet das einen dann auch nicht. 2% bei 60 FPS sind halt 61 FPS.

Zu RT: In den aktuellen RT Tests steht doch es wurde soweit runter gestellt dass es alle Karten schaffen, bin aber auch erst drauf reingefallen 😅

Optimieren kann man jede Karte, sei es AMD oder Nvidia.
Zum übertakten und Mehrverbrauch einer 7900xtx gab es hier bereits einen Test:
https://www.computerbase.de/2023-01...mark/#abschnitt_rx_7900_xtx_oc_vs_rtx_4080_oc
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MoinWoll
Zurück
Oben