News Leistung pro Euro: Welche Grafikkarte leistet wie viel zu welchem Preis?

chillipepper schrieb:
Danke, das weiß ich. Praktischer wäre es, die Infos bei der Auswertung dieses Artikels direkt mit korellieren zu können.

Wenn man eh schon die Produktdatenblätter wälzt, dann ist es einfacher, auch diese Daten mal eben mit zu notieren, als wenn man das ganze nochmal ganz von vorne machen müsste. Spart einen Arbeitsschritt und würde einen solchen Artikel für meine Begriffe informativer gestalten.
Das kann ich noch nicht so recht nachvollziehen. Je nach dem, welches konkrete Modell (im Sinne von konkretem Produkt eines bestimmten Boardpartners) in einem Vergleichstest dabei ist, könnte es im schlimmsten Fall zu völlig unzutreffenden Verallgemeinerungen führen, im besten Fall zur treffenden Aussage zu einem einzelnen konkreten Produkt, die aber auf andere Produkte in der gleichen Produktserie überhaupt nicht zutrifft. Mir sind darum schlichte Angaben zu Verbräuchen in Watt bei Vergleichstests deutlich lieber.

Ich habe zB vor meinem letzten Kauf sehr lange Leistung und Preis/Leistung abgewogen - auch, weil neben einzelnen Spielen verschiedene Anwendungen und mein triple-monitor-Betrieb eine Rolle spielen. Als ich wusste, welche Serien infrage kommen, habe ich zu den konkreten Modellen noch einmal nach der konkreten Umsetzung und dem Lüfter-Layout geschaut. Die Unterschiede sind so gewaltig und die Lautstärke so wichtig für mich, dass ich dabei eh nochmal im nächsten Schritt bei geizhals nach den gewünschten Eckdaten gefiltert und anschließend nach mehreren Tests je eingeschlossener Karte geschaut habe.
 
  • Gefällt mir
Reaktionen: flynn9
Gedankenpolizei schrieb:
Nichts.
Die Preis/Leistung bei Grafikkarten ist für Gamer eine absolut wertlose Zahl, finde ich.

Entweder möchte ich xxx FPS erreichen und muss den notwendigen Preis zahlen oder ich habe xxx Geld zur Verfügung und möchte die maximalen FPS erreichen.
Es geht entweder um das Minimalprinzip oder Maximalprinzip.

Da bin ich anderer Meinung
Ich habe von einer 4070 bis zu einer 4090 alles in Betracht gezogen. Mich dann aber aufgrund des Preisleistungsverhältnisses, der Sparsamkeit und der trotzdem ordentlichen Leistung in Verbindung mit meinen Anforderungen für die 4070 entschieden.
Sobald ich merke, dass die Karte mir nicht mehr ausreicht, wird über ein Upgrade nachgedacht.
 
  • Gefällt mir
Reaktionen: Tr8or, SIR_Thomas_TMC, flynn9 und 2 andere
=dantE= schrieb:
… oder Kelvin, was im Kontext einer Angabe zur Auflösung eines Bildschirms natürlich keinen Sinn ergibt. :D

Klugscheissermodus an:

Das ist nicht richtig! Kelvin gibts bei der Farbtemperatur. Sprich bei guten Monitortest bekommst du sehr wohl einen solchen Wert z.b. für den Weißabgleich genannt... :daumen:
 
  • Gefällt mir
Reaktionen: =dantE=, Dorimil und conglom-o
Vigilant schrieb:
Es wird unter den aktuellen Bedingungen noch etwas dauern, bis sich RT hinsichtlich der Verbreitung und Anwendung als Standard etabliert hat.
Das Problem ist ja auch, dass DLSS und FSR, zwei Techniken, die eigentlich den Hardwarehunger von RT auffangen könnten/sollten, inzwischen dafür genutzt werden überhaupt ne halbwegs stabile Performance zu erreichen. Damit fehlts dann wieder für RT bzw. kommen da nur kleine Spielereien, aber kein volles RT zum Einsatz.

Der Faktor DLSS/FSR wird mir aktuell völlig falsch genutzt und verschenkt.
 
Im Idealfall wäre das bei jeder Karte gleich, zahle ich also 10% mehr, erhalte ich auch 10% mehr Leistung. Leider ist das ja nicht der Fall, deswegen finde ich die Tabelle mit P/L auch gut. So kann man dann selber sehen, wo der Preis sein sollte/könnte und wieviel man dann leider für die Mehrleistung zahlen muss.
 
  • Gefällt mir
Reaktionen: SIR_Thomas_TMC
Rockstar85 schrieb:
Da reicht dann auch ne 1060 als FHD karte locker.
Für was? Mittel bis low? Die 1060 war ne tolle FHD Karte, als ich die 2016 oder 2017 gekauft habe, aber heute reicht die dafür kaum noch, außer man dreht alles sehr weit runter.

Das ist ja auch eines meiner Probleme heutzutage. Man braucht allein um FHD mit 60 FPS auf Hoch zu stellen ständig ne neue und inzwischen recht teure Karte. Mit 300€ wie bei der 1060 wird das schon eng.
 
Seit ich meine derzeitige Grafikkarte habe gehen mir diese Rankings irgendwie gegen den Strich.

Ich hatte mir ne RTX2070 gekauft. 2 Monate später kam die Super. Seit dem wird die RTX 2070 in kaum bis gar keinem einem Ranking aufgeführt.

Ich finde diese Rankings auch sehr seltsam. Es gibt ja im Endeffekt 2 Möglichkeiten diese Rankings zu benutzen.

1. Als Schwanzvergleich wer den größen Balken hat.
2. Als Möglichkeit zu gucken, wie groß den der Unterschied der aktuellen Serien ist zu meiner und ob sich das Aufrüsten lohnt.

Guckt man sich dieses Ranking an (und so viele andere) fällt Option 2 komplett raus. Maximal eine Generation vor der aktuellen wird in die Tests aufgenommen. Ohne eine Referenz mit einer älteren Karte (die es sich lohnt überhaupt upzugraden) nutzen einem diese Balken allerdings nen Keks.

Aus den Top 10 der steam hardware survey fehlen 5. Wie soll man da vergleichen?
 
  • Gefällt mir
Reaktionen: flynn9
Simonsworld schrieb:
Da bin ich anderer Meinung
Ich habe von einer 4070 bis zu einer 4090 alles in Betracht gezogen. Mich dann aber aufgrund des Preisleistungsverhältnisses, der Sparsamkeit und der trotzdem ordentlichen Leistung in Verbindung mit meinen Anforderungen für die 4070 entschieden.
Sobald ich merke, dass die Karte mir nicht mehr ausreicht, wird über ein Upgrade nachgedacht.
Gleiches hier, 4070 wäre meine P/L Wahl wenn mir meine 1080ti nicht mehr reichen würde, bräuchte nichtmal ein neues Netzteil.
 
  • Gefällt mir
Reaktionen: Tr8or, Simonsworld und conglom-o
RizzoSpacerat schrieb:
Guckt man sich dieses Ranking an (und so viele andere) fällt Option 2 komplett raus. Maximal eine Generation vor der aktuellen wird in die Tests aufgenommen. Ohne eine Referenz mit einer älteren Karte (die es sich lohnt überhaupt upzugraden) nutzen einem diese Balken allerdings nen Keks.

Aus den Top 10 der steam hardware survey fehlen 5. Wie soll man da vergleichen?
Das ist ein Problem, für das es keine Lösung gibt.

Ich erstelle ja auch nicht selbst die Benchmarks, das macht CB. Aber um das zu erreichen, was du meinst, müsste man:

  • bei einer Aktualisierung des Benchmarks-Parcours ALLE Karten neu testen. Den Zeitaufwand kann keine Redaktion der Welt stemmen.
  • bei jedem neuen Grafikkartentest ALLE Karten neu testen, da seit dem letzten Test Windows-Updates kamen, die die Leistung einzelner oder aller Karten möglicherweise beeinflussen. Auch hier somit ein Zeitaufwand, den keiner leisten kann.

Aus diesem Grund muss immer eine Auswahl an Karten getroffen werden, das geht überhaupt nicht anders.
Und diese Auswahl findet sich dann natürlich auch in meinem Leserartikel wieder, der ja auf den Testergebnissen von CB beruht. D.h. wenn CB etwas an den Tests ändert, muss ich das ebenfalls ändern, da sonst keine objektive Vergleichbarkeit mehr möglich ist.


Die Lösung dieses Problems wäre nur in einer vollautomatisierten Testumgebung zu finden, in der ein Roboter Grafikkarten im Testsystem ein- und ausbaut und die Benchmarks durchführt. Das gibt es aber leider nicht.
 
  • Gefällt mir
Reaktionen: SIR_Thomas_TMC und conglom-o
Uranus schrieb:
Spannendes Thema und super Überblick!
Zeigt mal wieder dass die High-End Modelle immer auch mit einem Preisaufschlag daher kommen.
Wenn man das absolute maximum an Leistung haben möchte muss man eben den Geldbeutel aufmachen. Sonst bleibt oftmals der Griff zur Klasse tiefer die sinnvollere Option.
War schon immer so, und wird sich auch nicht ändern. Ist auch in anderen Branchen so zutreffend, daher nichts neues ... anders wird es auch keinen Fortschritt geben.
 
Gedankenpolizei schrieb:
Nichts.
Die Preis/Leistung bei Grafikkarten ist für Gamer eine absolut wertlose Zahl, finde ich.

Entweder möchte ich xxx FPS erreichen und muss den notwendigen Preis zahlen oder ich habe xxx Geld zur Verfügung und möchte die maximalen FPS erreichen.
Es geht entweder um das Minimalprinzip oder Maximalprinzip.
Ich verstehe den Ansatz, aber ehrlich gesagt halte ich ihn für nicht sehr durchdacht.
So wie du es beschreibst, würde es zu absurden Folgerungen führen:
Nehmen wir dein Maximalprinzip, maximale FPS für Betrag X. So kaufe ich noch am ehesten.
Füllen wir das Beispiel mit Zahlen: Sagen wir ich hab 500€ bereitliegen. Nach dir würde ich einfach die stärkste Karte für 500€ kaufen. Nett, ich hätte nicht viel überlegt und die stärkste GraKa die man für das Geld bekommen könnte.

Da ich mir das P/L nichtmal angesehen habe, kann es aber sein, dass es beispielsweise eine GraKa gibt, die für 300€ 95% der Leistung bringt.
Nun, mir müsste mein Geld schon sehr egal sein, wenn ich trotzdem die 500€ Karte hole.

Es geht mir nicht um konkrete Karten und mir ist auch bewusst, dass es auf dem derzeitigen Markt eher so aussieht, als würde man bei den teureren Karten oft mehr FPS/€ kriegen.
Mir geht es darum, dass man sowas gar nicht wüsste, wenn man dein Maximalprinzip anwendet.
Beim Minimalprinzip kommt es aufs selbe raus, ich könnte für 200€ eine Karte kaufen, die 50% der Leistung einer anderen Karte für 220€ bringt. Kein guter Deal.

Es bleibt eigentlich dabei, dass nur P/L interessant ist, immer und bei allem. Absolute Preise sind nur für einen einzigen Punkt interessant: Wo hör ich auf zu gucken? Hab ich schlicht keine 1000€ übrig, ist es müßig sich in der Region das P/L anzusehen.
Mit sagen wir 500€ ist so eine Karte einfach außerhalb des Budgets. Aber innerhalb der 500€ Spanne sollte man sich das P/L gut ansehen.
 
  • Gefällt mir
Reaktionen: SIR_Thomas_TMC, DAU123, LamaMitHut und 2 andere
Rassnahr schrieb:
Ich kaufe auch nur noch gebraucht.

Meine letzte neue GPU war eine 5700xt nitro+ welche ich dank dem mining boom gegen eine 6700xt eintauschen konnte.

Anfang dieses Jahres habe ich mir dann für ~500€ eine 6900xt bei ebay Kleinanzeigen gekauft.
Selbes bei mir und derzeit auch am suchen nach einem upgrade Schnäppchen. Darf auch gerne nur eine 6800xt sein, wenn der Preis passt.
Alternativ würd ich natürlich auch eine 3080Ti 12GB nehmen, aber wirds für den Preis nicht geben ! NV Karten sind sowiso überteuert am gebrauchtmarkt kommt mir vo, wobei vereinzelt 3070 für unter 300€ angeboten werden, aber da hat man wieder die 8GB im Hinterkopf. Die 3060 wird teilweise über der 3060Ti und 3070 angeboten und das nur wegen den 12gb vram , wobei die Rohleistung trotzdem fürn popo ist bei etwas Anspruch, da helfen ultra texturen auch nix ;) .
 
habla2k schrieb:
Das Problem ist ja auch, dass DLSS und FSR, zwei Techniken, die eigentlich den Hardwarehunger von RT auffangen könnten/sollten, inzwischen dafür genutzt werden überhaupt ne halbwegs stabile Performance zu erreichen.
Jep, klassischer Rebound-Effekt.
 
  • Gefällt mir
Reaktionen: Rockstar85 und Maine
Dann brauche ich mich ja akt. noch nicht zu verstecken, mit meiner AMD Radeon RX 6800 XT.
Freut mich, damals richtig investiert zu haben :schluck:
 
RizzoSpacerat schrieb:
Seit ich meine derzeitige Grafikkarte habe gehen mir diese Rankings irgendwie gegen den Strich.

Ich hatte mir ne RTX2070 gekauft. 2 Monate später kam die Super. Seit dem wird die RTX 2070 in kaum bis gar keinem einem Ranking aufgeführt.

Das Problem hatte ich auch. :cool_alt: Konnte mir dann dieses Jahr aber in der Bucht eine gebrauchte 6700XT ergattern (für unter 300€). Auch wenn die 2070 bisher keine Probleme gemacht hat und seit 2019 immer noch Leistung liefert, konnte ich so doch den ein oder anderen Regler verschieben.
Wenn ich mir dann diese Grafiken hier anschaue....alles richtig gemacht!
Und da dieses Jahr Hogwarts Legacy das einzige neue Spiel bei mir war (zu BG3 noch nicht gekommen), reicht mir die Leistung völlig aus. (spiele in WQHD)
 
Rubyurek schrieb:
2k meine ich schon mit der Auflösung von 3440x1440 oder 2560x1440 oder habe ich jetzt ein denkfehler?
Abgesehen davon, dass 2560x1440 hier ja behandelt wird und ich daher den ursprünglichen Post generell nicht verstehe, ist 2K eben nicht 1440p sondern 1080p
 
  • Gefällt mir
Reaktionen: Darkseth88
Da ist wieder mein lieblingsthema :freak: Hoffe es wird nicht zu sehr OT.
PTS schrieb:
hä? FullHD ist doch 2K. was quatscht du denn bitte für einen Stuss zusammen ;D

ist schon richtig 4K zu testen..
Yup, vollkommen richtig.
syfsyn schrieb:
2k beschreibt 1440p den Bezug zu den pixel wäre auch falsch den echtes uhd ist 8 000 000 pixel demzufolge der Logik 8k
aber dies wird meist als 4k bezeichnet
.....
Wofür das K steht weiß auch keiner das hat sich irgendein marketing typ ausgedacht ich glaube das dies mit dem 4 fachen fhd einhergeht daher macht 2k auch sinn wenn 2 mal 1080p =1440p ist
2k ist nicht 1440p, war es nie und wird es nie sein. Es existiert komplett gar kein logischer Weg zu dieser Annahme ^^
Aber lass mich etwas mehr ausholen:

das k steht für tausend als abkürzung, und ist bei Auflösungen bzw Displays in der Regel grob die Anzahl der Horizontalen Pixel. Bzw die Anzahl der Pixel auf der langen Seite (bei Smartphones dann vertikal, je nachdem wie man die hält).
Kommt bzw wirklich von "kilo": https://de.wikipedia.org/wiki/Tausend#:~:text=k (Abkürzung für Kilo) wird,1k anstatt 1000.
Kilo = das tausendfache, daher wird es besonders im englischen Raum stellvertretend als abkürzung für tausend benutzt. 100k € = 100000€ als Beispiel.

2k macht da aber weniger Sinn, da 1440p auch nicht 2 mal 1080p ist sondern 1,78 mal. Aber runden wir mal auf. Aber bei der Logik würde es bedeuten, dass Full HD = 1k wäre, und das wäre höchstens die vertikale Pixelanzahl passend. Dann ist es aber sinnlos, warum 1440 2k sein soll oder 2160 dann 4k.

Wenn 3840x2160, also eine Pixelanzahl von 3840 = 4k ist, dann halbier doch einfach beides: Hälfte von 3840 ist 1920. Und von 4k eben 2k.

Dein gedankengang hier ist aber der gleiche, warum sich das so falsch etabliert hat, daher kann ich das nachvollziehen.
Hier eine kleine Erklärung: https://linustechtips.com/topic/691408-2k-does-not-mean-2560×1440/

4k Auflösungen hatten 4 mal so viele Pixel wie Full HD.
1440p hat etwa grob 2 mal so viele Pixel wie Full HD. Also hat man es komplett falsch als 2k bezeichnet, obwohl das k NICHTS mit der gesamten Anzahl der Pixel am Hut hatte.
Und das hat sich wie ein Lauffeuer verbreitet.
Nicht nur so weit, dass es in allen Foren immer wieder leute falsch machen, sondern dass die Marketingabteilungen von Asus, Huawei, Viewsonic und evtl noch anderen das gleiche tun, und ihre 2560x1440 Monitore als 2k bezeichnen. Das ist echt nicht hilfreich dafür, dass das mal korrigiert wird, und dementsprechend mittlerweile auch zumindest semi-verständlich, warum 2k = 1440p weiterhin in den Köpfen bleibt.

=dantE= schrieb:
Ich benenne immer die vertikale Anzahl der Pixel, dann versteht man mich bei einem 16:9 Standard auch.
Das wäre in Anbetracht der Situation schon mit Abstand das beste immer :D
Denn jedesmal wenn jemand was zu nem Monitor oder passenden GPU fragt, aber von 2k spricht, muss ich eig immer nachfragen, ob damit nun Full HD gemeint ist oder nicht doch WQHD.

Rubyurek schrieb:
2k meine ich schon mit der Auflösung von 3440x1440 oder 2560x1440 oder habe ich jetzt ein denkfehler?
Ja, wie oben erwähnt die "x-K" die Anzahl der Pixel auf der langen Seite - das ist wohl direkt der Denkfehler.

Das k beschreibt weder die gesamte Anzahl an Pixeln, noch die Pixeldichte.
2560 ist doch schon deutlich weiter weg von 2000 als 1920. 560 vs. 80 ;)
Und dass 3440 weit weg ist von 2000 ist ja nun auch recht offensichtlich.

Und da das k immer die längere Seite ist, ist 1440 ja auch weit weg von 2000.

Ja, eig ist das falsch, aber auch ja, es ist gängig das so zu bezeichnen.
 
  • Gefällt mir
Reaktionen: PTS, angHell, =dantE= und eine weitere Person
Weswegen ich die Bezeichung vermeide bei mir heisst es immer 1080p 1440p oder 2160p und 4k gelegentlich da jeder versteht das damit uhd gemeint ist
 
  • Gefällt mir
Reaktionen: =dantE= und Darkseth88
Darkseth88 schrieb:
Der Abschnitt über ultrawide ist sehr lesenswert. So hatte AMD bei der RDNA3 Präsentation ja auch "getrickst", indem sie "8K" geschrieben haben. Es waren auch ~8K Pixel in der Horizontalen, womit die Bezeichnung 8K theoretisch richtig war, aber es hat aufgrund dessen, wie sie von den meisten gelesen wird, ein falsches Bild gezeigt, da es eben kein klassisches 16:9 mit 7680 × 4320, sondern eine 32:9 Auflösung mit 7680 × 2160 war, die natürlich nur die halbe Pixelmenge besitzt.
 
Zurück
Oben