Bericht Grafikkarten-Rangliste 2024: GPU-Vergleich mit GeForce RTX, Radeon RX & Arc für Mai

AmyDinosaur schrieb:
Weil Computerbase immer nur die gleichen Hersteller testet - wozu KFA, auch wenn sie in die Liste gehören, nicht zählt... wer weiß vielleicht würden sie dann keine Asus Samples mehr bekommen weil die KFA die Asus vom Thron stürzt?
Ebenso derzeit vollkommen unnötig einen Vergleich wo jedem klar ist dass die 1080ti die Krone hat... eher ein Vergleich ALLER 1080ti Modelle wäre interessant.

Yeah, eine neue Verschwörung!
Die Antwort ist einfach: Die Gainward-Karte taktet halt deutlich höher als die KFA². Da geht der Aufpreis in Ordnung.
Und ich sehe keinen einzigen Anhaltspunkt, warum die KFA² eine Asus vom "Thron" stürzen würde. Dafür ist die KFA² gar nicht entwickelt worden.

Das in der Empfehlung gelistete ASUS ROG Strix OC Modell gehört eher zu den teuersten GTX1080Ti Modellen derzeit mit ca. 820 Euro im Vergleich zum über 100 Euro günstigeren Gigabyte Gaming OC Modell für ca. 693 Euro und ich kann mir kaum vorstellen, dass diese Preisdifferenz auch nur annähernd gerechtfertigt ist.
Bei P/L hast du zweifelsohen recht. Bei der Empfehlung geht es in dem Fall schlicht um die (mit) Beste GTX 1080 Ti. Darum wird die Asus empfohlen. Die letzte (teuerste) Empfehlung soll der Bestfall sein.

Die Empfehlungen schauen momentan ziemlich schlecht aus für AMD.
Man kann halt nix kaufen...

Witcher 3 mit ner GTX 1080.
Zw. 1080p und 1440p liegen nur 1-2 Fps?
Bzw. allgemein zw. 1080p und 1440p kaum Leistungsverlust?

werden die Games in 1440p mit weniger Details getestet?
Wie kommst du da drauf? In der Rangliste stehen nur Prozentwerte, keine FPS.
 
@combatfun: 1080p sind heute halt eine Auflösung für Mittelklasse Grafikkarten. Aktuelle Oberklassekarten sind tatsächlich auch für höhere Auflösungen konzipiert. Alten karten fehlt es bei mehr als 108ßp meistens schon schlicht am nötigen Grafikspeicher. Sieht man bei der 780ti ganz gut. Eine 780ti mit ordentlich OC hat auch heute noch ne menge leistung. Bei 1250mhz Takt hat die 780ti ca. 7,2 tflops. Eine GTX 1070 bei 1800mhz bringt es auf nur 6,9.


Bei geringer Auflösung werden die vielen Shader nicht ordentlich ausgelastet. Das liegt zum teil nicht an den Karten, sondern an den Spielen selbst. Eine 780ti bricht bei mehr als Full HD zum Beispiel deutlich ein, aber umgekehrt ist eine 1070 in Full HD meistens prozentual nicht soviel schneller, als wenn man beispielsweise 1440p vergleichen würde, wo sie kreise um eine 780ti dreht. Es kommt halt auch viel auf die Spiele an und die Treiber
 
Chismon schrieb:
Das in der Empfehlung gelistete ASUS ROG Strix OC Modell gehört eher zu den teuersten GTX1080Ti Modellen derzeit mit ca. 820 Euro im Vergleich zum über 100 Euro günstigeren Gigabyte Gaming OC Modell für ca. 693 Euro und ich kann mir kaum vorstellen, dass diese Preisdifferenz auch nur annähernd gerechtfertigt ist.

Wow, das halte ich wirklich schon für ziemlich dreist. :o

Wolfgang schrieb:
Yeah, eine neue Verschwörung!
Die Antwort ist einfach: Die Gainward-Karte taktet halt deutlich höher als die KFA². Da geht der Aufpreis in Ordnung. Und ich sehe keinen einzigen Anhaltspunkt, warum die KFA² eine Asus vom "Thron" stürzen würde. Dafür ist die KFA² gar nicht entwickelt worden.

Die KFA² lässt sich wie Tomshardware anmerkt auch problemlos mit dem EX OC BIOS bespielen und hat dann einen geringeren Abstand beim Boost. Aber okay, wenn es ausschließlich um Leistung geht und nicht auch P/L hängt die KFA2 natürlich hinterher. Meine boostet übrigens auch mit 2000+ wenn man etwas nachhilft. ;)
 
Zuletzt bearbeitet:
Wolfgang schrieb:
Bei P/L hast du zweifelsohen recht. Bei der Empfehlung geht es in dem Fall schlicht um die (mit) Beste GTX 1080 Ti. Darum wird die Asus empfohlen. Die letzte (teuerste) Empfehlung soll der Bestfall sein.
Im Kontext einer Kaufberatung wäre Ich jetzt bei "Empfehlung Modell" durchaus davon ausgegangen, dass eben der Preis berücksichtigt wird. Ich würde vorschlagen, dass man dies in Zukunft klarer gestaltet.
Entweder sowohl eine P/L als auch eine L Empfehlung oder zumindest einen Disclaimer (oder hab Ich den überlesen?)
 
Die KFA² lässt sich wie Tomshardware anmerkt auch problemlos mit dem EX OC BIOS bespielen und hat dann einen geringeren Abstand beim Boost. Aber okay, wenn es ausschließlich um Leistung geht und nicht auch P/L hängt die KFA2 natürlich hinterher. Meine boostet übrigens auch mit 2000+ wenn man etwas nachhilft.
Dass das geht ist ja schön für denjenigen, der es macht. Das sind dann aber vielleicht 0,1 Prozent aller Käufer der Grafikkarte. Das kann man bei einer Kaufberatung wohl kaum berücksichtigen. Und natürlich spielt P/L eine Rolle. Aber nicht ausschließlich. So monströs groß ist der Unterschied bei der 1070 beim Preis eben nicht.

Bencht ihr Doom in OpenCL?
Wenn du Vulkan meinst, dann ja :)
 
Ach dieses Drecks Nvidia. Jetzt ist also die Fury hinter der 980Ti. Toll.

Ihr könnt mir erzählen was ihr wollt. NV bremst seine eigenen Karten ab. zu 1000%.
 
Wolfgang schrieb:
Bei P/L hast du zweifelsohen recht. Bei der Empfehlung geht es in dem Fall schlicht um die (mit) Beste GTX 1080 Ti. Darum wird die Asus empfohlen. Die letzte (teuerste) Empfehlung soll der Bestfall sein.

Na gut, unter dem "Hochleistungs"-Gesichtspunkt würde ich persönlich die (von Euch leider nicht getestete, aber auf Guru3D und Tom's Hardware als exzellent befundene) GigaByte/Aorus GTX 1080Ti in der Extreme Edition für derzeit ca. 760 Euro - also immer noch ca. 60 Euro weniger - immer noch klar vor der ASUS GTX1080Ti ROG Strix OC als Empfehlung sehen ;).

Was P/L angeht, weiss ich auch nicht, ob das Palit Super Jetstream GTX 1080Ti Modell nicht sogar noch lohnender als die Gigabyte Gaming OC GTX 1080Ti Modell wäre für einige wenige Euro mehr - für Leute die möglichst günstig in eine GTX 1080Ti GPU einsteigen wollen - wegen der vermutlich besseren Kühllösung, auch wenn dem m.W. eine längere Garantiedauer bei Gigabyte gegenübersteht.

Vielleicht wäre es eine Überlegung wert, eine Doppelempfehlung anzugeben (bspw. anstelle der vorherigen Aufteilung in nVidia und AMD Empfehlungen für eine Leistungsklasse bzw. einen Preisbereich), die eine nach P/L gewählte Empfehlung für Einsteiger bzw. Leute mit begrenztem Budget in den GPU-Leistungs-/-Preisbereich und, wie bisher, einen Leistungssieger unter den Topmodellen einer GPU-Leistungs-/-Preisklasse unterscheidet?

Angesichts der z.T. massiven Preisunterschiede bei Modellen mit dem gleichen verbauten GPU-Typ wäre das für Interessenten/potentielle Käufer sicherlich eine gute Orientierung und große Hilfe :).
 
Zuletzt bearbeitet:
Chismon schrieb:
Vielleicht wäre es eine Überlegung wert, eine Doppelempfehlung anzugeben (bspw. anstelle der vorherigen Aufteilung in nVidia und AMD Empfehlungen für eine Leistungsklasse bzw. einen Preisbereich), die eine nach P/L gewählte Empfehlung für Einsteiger bzw. Leute mit begrenztem Budget in den GPU-Leistungs-/-Preisbereich und, wie bisher, einen Leistungssieger unter den Topmodellen einer GPU-Leistungs-/-Preisklasse unterscheidet?
Mhm, mal überlegen fürs nächste Mal. Für den höchsten Preisbereich vielleicht einmal eine Überlegung wert.
Bei den anderen wird wie gesagt ohne mehr auf P/L geachtet (aber nicht ausschließlich).
 
Chismon schrieb:
...

Vielleicht wäre es eine Überlegung wert, eine Doppelempfehlung anzugeben (bspw. anstelle der vorherigen Aufteilung in nVidia und AMD Empfehlungen für eine Leistungsklasse bzw. einen Preisbereich), die eine nach P/L gewählte Empfehlung für Einsteiger bzw. Leute mit begrenztem Budget in den GPU-Leistungs-/-Preisbereich und, wie bisher, einen Leistungssieger unter den Topmodellen einer GPU-Leistungs-/-Preisklasse unterscheidet?

Angesichts der z.T. massiven Preisunterschiede bei Modellen mit dem gleichen verbauten GPU-Typ wäre das für Interessenten/potentielle Käufer sicherlich eine gute Orientierung und große Hilfe :).

Diesem Vorschlag pflichte ich bei :daumen:
 
combatfun schrieb:
Generellt ist mir aufgefallen, dass der Performance Verlust in höheren Auflösungen auf einer 1080 nicht mehr so dramatisch ausfällt, wie man es von früher von alten Karten gewohnt war. Es scheint als wird (nur noch?) für höhere Auflösungen optimiert!? Hatte eine 780 in 1080p z.B. 70 FPS average, war der Einknick in 1620p riesig z.B. auf 35 FPS. Eine 1080 verliert z.B. nur 20 FPS.
Du wirst wohl bei 1080p häufiger im CPU Limit hängen. Ansonsten kann man mit der Aussage über 20 fps an Verlust auch nicht sonderlich viel anfangen. Sollten vorher 40 angelegen haben, ist der Verlust dennoch massiv. Sofern ein Spiel die Karte in 1080p komplett auslastet, sinkt die Fps Rate unter Auflösungserhöhung wie eh und je, sofern man Vram Überlastungen außen vor lässt
 
Wolfgang schrieb:
... mal überlegen fürs nächste Mal. Für den höchsten Preisbereich vielleicht einmal eine Überlegung wert.
Bei den anderen wird wie gesagt ohne mehr auf P/L geachtet (aber nicht ausschließlich).

Stimmt natürlich, dass die Preisdifferenz in der GPU Mittelklasse nicht so groß, wie bei den Ober- und Enthusiastenklasse Modellen (also ab GTX 1070 aufwärts), keine Frage ;).

Was übrigens die ASUS Strix OC GTX1080Ti angeht, liegt - im Gegensatz zum ca. 60 Euro günstigeren Gigabyte Aorus Extreme Edition Topmodell - der Kühler auch nicht auf den Spannungswandlern optimal auf (nutzt auch keine Wärmeleitpads zur Backplate), was für das bessere/schonendere/überlegene Kühldesign beim Gigabyte Modell spricht wie in diesen Unpacking- und Kurztest-Videos demonstriert:

https://www.youtube.com/watch?v=mItN5hNV6go

https://www.youtube.com/watch?v=QJDhLcYDXCA

Die ASUS GTX 1080Ti ROG OC ist zwar das luftgekühlte Topmodell von ASUS, aber wenn es um reine Leistung geht, dürfte das Poseidon Modell mit vorinstallierter Wasserkühlung ab ca. 865 Euro noch darüber liegen (und ist im Vergleich zur Konkurrenz von MSI, Inno3D, EVGA, usw. auch nicht so unverhältnismäßig teuer angesetzt), wenn man denn wassergekühlte GPUs (in eigener Rubrik/Klasse) mit empfehlen will bei den aktuell leistungsstärksten GPUs.
 
Zuletzt bearbeitet:
SchaGur schrieb:
Ach dieses Drecks Nvidia. Jetzt ist also die Fury hinter der 980Ti. Toll.

Ihr könnt mir erzählen was ihr wollt. NV bremst seine eigenen Karten ab. zu 1000%.

Es gab schon unzählige Tests und Artikel die wiederlegen dass Nvidia seine Karten künstlich einbremst. Wenn es Änderungen gibt dann eher durch die Zusammensätzung des Testparcours oder der getesteten Spiele, Auflösungen etc.
 
Nur weil die rx 580 im Moment nicht lieferbar ist, kann man sie nicht empfehlen?

Für 200-300 Euro ist die Rx 580 das rundere Angebot aber wir sind ja auf nvidiabase.... Wundert mich das überhaupt eine rote Karte empfohlen wurde....

Edit:
Fury ist genauso schnell wie die gtx 1060? Wieso misst pcgh da 22% mehr Leistung? Die Redakteure waren damals mal neutraler auf nvidiabase
 
Zuletzt bearbeitet:
SchaGur schrieb:
Ach dieses Drecks Nvidia. Jetzt ist also die Fury hinter der 980Ti. Toll.

Ihr könnt mir erzählen was ihr wollt. NV bremst seine eigenen Karten ab. zu 1000%.

Nvidia bremst doch nicht die eigenen Karten aus, eher ist es so, dass die alten Karten aufgrund von zuwenig VRAM oder fehlenden Features (zB.: async Shadder bei Maxwell,...) nicht ganz so gut über die Jahre mithalten können.

Dennoch gibt es auch Fälle wie Gameworks und Witcher3. Einfach mal googeln. Da werden AMD Karten und eben auch ältere Nvidia Karten tot tesseliert, da AMD hier eine Schäche hat. Am Ende gibt es bei AMD einen Fix über den Treiber (Tesselationslevel selbst bestimmen, wärend die Nvidia-Jünger mit älteren Karten weiterhin in die Röhre gucken)

Dazu kommt noch AMDs DX11 Treiberoverhead. Sprich die Karten können sich häufig schlecht bei Release in Szene setzen, - besonders je stärker diese zubeginn sind. Auch dehalb war alles größer als Polaris nicht mehr sinnvoll ohne neue Architektur. Bei zunehmen Alter wird aus einem anfänglichen CPU-Limit aber ein hartes GPU-Limit, daher die reine Grafikleistung zählt. Deshlab altern AMD-Grafikkarte auch besser. Man könnte auch sagen, AMD musste die KArten leider unter Wert verkaufen.

Die Fury ist mit ihren technisch nicht anders lösbaren 4GB HBM ein besonderer Fall und hat eine stark schwankende Leistung.

@Computerbase

Wenn man schon schreibt: "Nvidia-Grafikkarten benötigen grundsätzlich etwas weniger Strom, sind also energieeffizienter."

Dann sollte man auch schreiben: "AMD-Grafikkarten bieten grundsätzlich bei gleichem Preispunkt mehr VRAM, sind also langlebiger".

Die Fury ist bis auf 1-2 Einträge abverkauft. Daher ist das eben allgemeingültig!

Noch ein Punkt mit großem Fragezeichen:
In Doom wird wohl mit OpenGL gebenched. Warum? Lieber mit einer alten API benchmarken, hauptsache die AMD Karten dürften nicht glänzen...

In diesem Test sind die 980Ti und die Fury gleich auf. Bei euerm Vulkan-Test liegen 30% dazwischen. In die eine Richung ist es also ok, nur anders rum blos nicht?!Laut eurer Methodik sollte immer die bessere API Verwendung finden. Tut sie aber offensichtlich nicht. Das war übrigens schon beim letzten mal so, und davor,...

Falls ihr eine Quelle braucht:
https://www.computerbase.de/2016-07/doom-vulkan-benchmarks-amd-nvidia/
https://www.computerbase.de/2017-05..._directx_11_directx_12_und_vulkan__wo_wer_was
 
Zuletzt bearbeitet:
kontrovers blahblah et cetera et cetera

ein Beispiel wo viel zu viel Spielraum für Fehldeutung besteht:

Preisbereich 301-450 - Nvidia GeForce GTX 1070 - Gainward GeForce GTX 1070 Phoenix GLH

die anderen 1070er sind bestimmt auch brauchbar, aber der Preisbereich sieht stark und explizit zugunsten des empfohlenen Modells hin so breit gewählt.

Entweder hat man 300 oder 450€? Was ich meine: also wenn mein Budget bei 360€ ist, streckt es sich ziemlich schwer in den den Bereich um die 450€. Warum oder ob das gewählte Modell das beste ist, ist dabei gar nicht wichtig. Der Bereich ist unrealistisch breit gewählt, dabei ist es bestimmt möglich eine 1070 zu empfehlen die eher bei 380€ liegt.

Etwas unglücklich wie ich finde...
 
AMD hat im GPU-Bereich das Nachsehen.
Die leicht irritierten Fanboys können das nicht wahrhaben.

Ich habe zuletzt mein RX480 8GB für gutes Geld verkauft, bin ich froh. Ist immer noch langsamer als eine gute GTX1060 (auch die 580 ist langsamer), benötigt mehr Strom.

Eine GTX1070 ist einfach unschlagbar in dem Preisbereich, da kann ich auch auf die Freesync-Unterstützung meines Monitors verzichten.
 
Ein bisschen mehr Strom ? Up to beinahe 100% mehr Strom.... (siehe Effiziensdiagramm 570 vs 1060 FE)
 
EAPOCS schrieb:
AMD hat im GPU-Bereich das Nachsehen.
Die leicht irritierten Fanboys können das nicht wahrhaben.

Ich habe zuletzt mein RX480 8GB für gutes Geld verkauft, bin ich froh. Ist immer noch langsamer als eine gute GTX1060 (auch die 580 ist langsamer), benötigt mehr Strom.

Eine GTX1070 ist einfach unschlagbar in dem Preisbereich, da kann ich auch auf die Freesync-Unterstützung meines Monitors verzichten.

Mal die aktuelle Liefersituation außen vor.

Zwischen eine GTX580 und eine GTX1060 9Gbps liegen hier 3%. Die eine ist einen Hauch schneller und etwas sparsamer (Manche lehnen sich aus dem Fenster und würden sagen gleichschnell). Die andere bietet dafür jedoch 33% mehr VRAM und spart dir 150€ beim Monitor. Ich würde sagen es ist vollkommen egal welche Karte man nimmt.

Pumpi schrieb:
Ein bisschen mehr Strom ? Up to beinahe 100% mehr Strom.... (siehe Effiziensdiagramm 570 vs 1060 FE)

Schon mal nachgerechnet? Nein? Noch Hotel Mama?

Zwischen der RX580 und der GTX1060 liegen +80% Verbrauch. Klingt ersteinmal viel. Das sind jedoch nur 90Watt.
Ein normaler Arbeitnehmer in D kommt abzüglich Urlaub und Wochenenden auf ~6 Std Arbeit pro Tag.

Als super Nerd der das Hauptberuflich macht brauchst du 3 Jahre Dauerzocken mit 6 Stunden täglich um die 150€ Aufpreis deines Gsync Monitor rauszuholen! Reduzierst du das ganze von 6 Stunden auf "lediglich" krankhafte 3 Stunden wären es logischerweise bereits 6 Jahre. Nur um den Aufpreis raus zu haben.

Gehen wir nun aber davon aus, dass der VRAM die Karte langlebiger macht, sodass du deine GTX1060 effektiv 1 Jahr weniger nutzt. So erhöt sich der Preis der Karten eben durch die Anzahl der Jahre. Die Rechnung geht also erst recht nicht auf.

Zu Zeiten der 7970 stand ich vor einer ähnlichen Wahl. Die GTX680 hat 150€ mehr gekostet und war etwas schneller als die 7970. Die neue Architektur und der VRAM haben die 7970 jedoch deutlich langlebiger gemacht. Obwohl der Marktanteil damals schon bei etwa 2/3 für Nvidia lag nutzen heute laut PCGH noch 5,5% der Umfrageteilnehmer Karten mit Tahiti Chip. Nur 3,5% der Leute nutzen noch Karten mit GK104.
http://www.pcgameshardware.de/Grafi...fragen-Grafikkarte-und-Videospeicher-1033947/


Der Verbrauch spielt bei Grafikarten keine Rolle, sofern man ihn zufriedenstellend gekühlt bekommt. Die Langlebigkeit ist viel wichtiger.
 
Zuletzt bearbeitet:
Meine 2012 gekaufte 7970er von Gigabyte, leicht übertaktet schafft in FullHD also immer noch mind. genausoviele Details wie eine aktuelle GeForce 1080 GTX Ti Partnerkarte in 4k?

Oder sehe ich das falsch wegen CPU Einfluss etc? (ganzer Rechner noch von 2012, aber schon SSD immerhin)
 
Zurück
Oben