Bericht Preis-Leistungs-Verhältnis: Die besten Gaming-Grafikkarten gemessen in FPS pro Euro

Noch schon und ab 550 sofort

Screenshot 2024-05-24 112923.png

Ein Umschwenken auf 6750xt wäre aber langsam sinnvoll da auch oftmals günstiger

Screenshot 2024-05-24 112751.png
 
  • Gefällt mir
Reaktionen: cele und fox40phil
Idee: den "Idle"-Stromverbrauch mit aufnehmen.
 
  • Gefällt mir
Reaktionen: schlangski, -equal-, fox40phil und eine weitere Person
Im Artikel hat sich ein Fehler eingeschlichen:

FPS pro Euro in FHD​

Gemessen in FPS pro Euro Anschaffungspreis liegen Intels Arc A750 und AMDs Radeon RX 6650 XT gleichauf an der Spitze. AMDs RX 7600 ist ihnen aber dicht auf den Fersen. Die Radeon RX 7700 XT und Nvidias GeForce RTX 4060 Ti und RTX 4060 folgen. All diese Grafikkarten bringen allerdings den Malus von „nur“ 8 GB VRAM mit sich, was selbst in FHD mittelfristig doch zu wenig sein kann (aber nicht muss!).



Soweit ich weiß hat die 7700XT immer 12 GB.
Vielleicht wurde es schon gemeldet, aber ich möchte ungerne 500 Kommentare lesen :-)
Danke für den spannenden Artikel!
 
  • Gefällt mir
Reaktionen: T1beriu, floTTes, Jan und eine weitere Person
Moinge schrieb:
Soweit ich weiß hat die 7700XT immer 12 GB.
Jap, das stimmt. Wurde entsprechend angepasst, danke für den Hinweis!
 
  • Gefällt mir
Reaktionen: floTTes und Jan
  • Gefällt mir
Reaktionen: Merit, fox40phil und floTTes
Und was ich auch gerade feststelle: Nach 2,5 Jahren ist im Segment meine 6700XT (habe damals 460€ bezahlt) noch nichts neues dazu gekommen... also es hat sich quasi nichts getan. Letztens eine 6800 für 370€ gesehen, aber das ist halt kein Update wert - natürlich dennoch eine gute (aber alte) Karte.

Da muss es wohl erst die nächste Gen richten. Bitter!
 
  • Gefällt mir
Reaktionen: Nighteye und onkuri
Ich habe den Eindruck, dass die AMD-Karten am Maximum ausgeliefert werden.
Meine 7800XT läuft auf ~160W nicht so viel langsamer als bei Vollgas >300W (vielleicht -20%).
Wer sich wirklich für ein paar Euro pro Jahr die Mühe macht, kann doch einfach die Regler im Adrenalin runterdrehen.

In einem Balkendiagram mit einem Wert pro Karte sieht das natürlich nicht so toll aus.
 
  • Gefällt mir
Reaktionen: fox40phil
Meine RX6800 läuft bei 120W (Um 400mhz untertaktet) und bringt in BF2042 und Star Citizen 400fps
Das wären 3 Cent pro Stunde.
 
  • Gefällt mir
Reaktionen: BornBad
Ja, aber nur was die Betriebskosten angeht. Das holt die Anschaffungskosten nur bei 24/7-Betrieb wieder rein ;-)
 
@Maine

Erstmal DANKE für die Arbeit! :daumen:
Insbesondere das ihr euch die Mühe nochmal mit Stromkosten gemacht hat! Echt Top von Euch! :daumen:

Aber ich habe selten von der Industrie so langweilige kalkulierte "Flipcharts" gesehen, was P/L angeht. Wettbewerb quasi Fehlanzeige. AMD verkauft sich über den Preis und das auch erst praktisch ab 400€?!? Will man Raytracing, wird der Konsument zu nem Speicherkrüppel gezwungen.

1716561687745.png


1716561734320.png


Bitte seht das nciht als "offens". Ihr macht euch eine heiden arbeit und ich bin dankbar dafür. Aber wer viel will, Zahlt unverschämt viel 4080/4090! Gut das war schon immer so. Wen auch nicht so extrem. Aber das ist halt die Marktsituation. NV kann halt zur Zeit machen was sie wollen. Und jeder verkaufte GPU, ist halt kein verkaufter AI Chip...

Will man was vernünftiges und kein Vermögen zahlen, dann landet man bei der RX 7700. Aber das sind auch 400 Steine! Das war mal Highend. 800DM, und nein, das ist nicht nur Inflation... drunter hat AMD und NV nicht nur Speicherkrüppel, sonder auch noch PCIe_BUS-Krüppel, was "super" für Aufrüster ist. Durchs ganze Portofolie säuft AMD mehr Strom und hat eine lausige Raytracing Performance. So richtig warum will mir bei dieser Gen von AMD leider nicht werden... Zu groß wirkt der technologische Abstand, auch wen sie es zum teil durch den Preis kompensieren.

Will man nicht auf Effizens und RT leistung verzichtn, gut dann ist man gleich mal 700 Steine los.... also fast das doppelte! Und hat dann etwas was effizent, ausreichen Flott ist, RT kann und trotzdem nen Speichergrüppel. Nicht so extrem wie die unteren Karten, aber naja. 700 Steine... Wo ist das Lowend, die Mitte und gehobene mitte?!

und ist man weder bereit den einen, noch den anderen Tot zu sterben, dann hat man noch Intel mit nem sehr gutn P/L, aber mit äußert fragwürdiugen Treibern und Treibersupport. Wo ich schon extrem traumatisiert bin aufgrund anderer Intelprodukte, wo Treiber ab einen Gewissen zeitpunkt nicht mehr Online Verfügbar waren... Du hast nen Intel Mainboard, und die Webseite zeigt dir nur an, es gibt keienn Support mehr... Machen auch anderer Hersteller... irgendwann... Aber bei Intel bei gefühlt der hälfte der Zeit. Da ist kaum die Garantie um, und dann bekommt man anstatt Treiber 404.... Muss nicht noch immer so sein... Abei das schafft bei einem neuen Produkt halt leider kein vertrauen. Ich dennoch froh das sie sich bemühen. Aber es ist nicht der erste start in eine anderes Segment als CPU. Und wen länger die Zahlen nicht stimmen, dann wurde schon oft die Produktlinie einfach gekappt... Mag man Paranoid finden... und vieleicht verfliegt die auch aus der Not. Zur Not frisst der Teufel fliegen....
 
Zuletzt bearbeitet:
lynx007 schrieb:
Will man was vernünftiges und kein Vermögen zahlen, dann landet man bei der RX 7700. Aber das sind auch 400 Steine! Das war mal Highend. 800DM, und nein, das ist nicht nur Inflation...

Ist es auch nicht -- und jeder Hardwarekanal, der historische Preise 1:1 mit Inflation verrechnet, betreibt Hersteller-PR für lau. Selbst wenn die reinen Herstellungskosten exorbitant steigen, gibt es keinen Zwang dafür, Preise durch die Bank zu vervielfachen; man passt die entsprechende Modellpflege an. Apropos: Musste letztens über diesen 2019-Artikel schmunzeln. Das Ende der x86-CPUs ist ja schon seit Jahrzehnten nah. Auch aktuell wieder. Damals auch. Eines der Hauptargumente dieses Forschers:

Statt mehr Leistung für weniger Geld zu liefern, werden Prozessoren zunehmend teurer, weil der Fertigungsaufwand immer weiter steigt

Realitätscheck: Für den Preis eines Athlon 64 von vor zwanzig Jahren kriegt man noch immer einen aktuellen Ryzen. Über Speicher- und Bildschirmpreise müssen wir gar nicht erst reden. Wenn also die x86-CPUs DESHALB (siehe oben) bald am Ende seien, dann wären GPUs in aktueller Form bereits seit Jahren Zombies, die nur mehr mit der Preis-Brechstange am Schlurfen gehalten werden können.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: lynx007
Ja dem meisten Stimme ich zu... nur triggert mich als Kaufmann der Satz: "die reinen Herstellungskosten exorbitant steigen"...

Die Herstellkosten steigen immer! Sie müssen sogar steigen, wen nicht bedeutet das oft das etwas stagniert und etwas nicht stimmt! Was bedeuten Herstellkosten? Außem Lehrbuch, sind das das die kosten für Fertigung und Material. Aber nur weil die Kosten höher sind, heißt es nicht das das Endprodukt teurer wird!
Beispiel:
Produziere ich anstatt einen Stuhl, 10 Stühle, dann steigen meine Herzstellkosten. Sowohl die kosten für Mateial, wie aber auch Fertigung sind gestiegen.... Jetzt wird ein blünder mit Krückstock merken, "moment..., du hast ja auch 10 Stühle!"
#Gemeinkosten, Einzelkosten....

Und da bewegen wir uns noch auf Schreiner level, nicht Multinationalen konzern, mit 1000 den Produkten, mit kalkulatorischen kosten, sprich wo es geld kostet, wen zb das Fließband still steht!


Und das ist das Problme, "Herstellkosten" , die allein für sich genommen sehr wenig aussagen...

Anderes Beispiel, wo man das sehr gut sehen kann, HBM. Die das 3 Fache in der Produktions kosten solle im verhältnis zu DDR, aber zugleich mit 8 Fachen gewinn verkauft wirden...

Klar, ist der Chip teuere, wen ich 8, 16, 32... 100 Shichten silizium übereinander Klebe... dennoch ist der Preis pro Flop günstiger, oder pro GiB.

Und jetzt kommen wir zum eigentlichen punkt... Die Leute zahlen das Zichfache eines Games pro mm² Silizium, wen es um AI geht.... sie reisen das aus die Hände... deshalb wird es gerade teuer.... Weil Angebot und Nachfrage, bei gleichem, oder nur unzureichend steigender Produktivität.... Und wen aus dem Wafer nen AI Chip wird, dann kann man mit dem nicht zocken.

Natürlich kommen noch anderer Faktoren dazu... Aufs kleine Gebrochen, mit uns lässt kein Geld verdienen, außer es ist billiger das Fließband wegen uns laufen lassen zu können.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: spassmagnet
Toller Artikel/Test/Auswertung.

Nur eine Sache stört mich: "Drei Stunden Nutzung an jedem Tag des Jahres sind hierbei natürlich als für die meisten Spieler unrealistisch viel anzusehen".

Was ist daran unrealistisch? Manche schauen in den Abendstunden 2-3 Stunden auf dem Sofa TV, und manche zocken 2-3 Stunden. Unrealistisch wäre eher 4 Stunden aufwärts.
 
  • Gefällt mir
Reaktionen: Maine
Floorp schrieb:
Toller Artikel/Test/Auswertung.

Nur eine Sache stört mich: "Drei Stunden Nutzung an jedem Tag des Jahres sind hierbei natürlich als für die meisten Spieler unrealistisch viel anzusehen".

Was ist daran unrealistisch? Manche schauen in den Abendstunden 2-3 Stunden auf dem Sofa TV, und manche zocken 2-3 Stunden. Unrealistisch wäre eher 4 Stunden aufwärts.

ja, richtig kann ich (also für mich persönlich) auch bestätigen, vielleicht nicht jeden Tag, aber schon recht häufig die Woche, dass der PC 2-3 Std. an ist, heißt aber nicht zwangsläufig, dass man am PC "klebt". Manchmal lässt man ihn "mal laufen lässt", um z.B. Youtube-Playlists abszuspielen.



Tornavida schrieb:
Noch schon und ab 550 sofort

Anhang anzeigen 1487147

Ein Umschwenken auf 6750xt wäre aber langsam sinnvoll da auch oftmals günstiger

Anhang anzeigen 1487148
Tja, zu den Grafikkarten: weiß nicht genau, wie eine 6750 XT performed, mal die älteren Benchmarks prüfen, eigentlich soll es doch eine "4070 TI super" werden, aber die Preise bleiben nach wie vor stabil, obwohl es eigentlich nicht mehr nötig wäre. Hier auch nochmal ein direkter Vergleich zw. diesen Karten

Wenn ich mir die Benchmarks hier im Test anschaue, würde ich trotzdem eher zur 7800 XT greifen. Werde aber nochn bissle warten, keine Ahnung auf was, aber 8xx Euro sind ja bekanntlich schneller ausgegeben als einem lieb ist. Mal sehen, wie sichs in den nächsten 1-2 Monaten entwickeln wird.
 
Die wichtige Statistik zum Stromverbrauch beim 144 fps ist nach wie vor unglaubwürdig und nicht nachvollziehbar. Zunächst einmal stellt sich hier die Frage welches Spiel getestet wurde. Ich meine es war Doom. In einem anderen Spiel können sich ganz andere Werte zwischen AMD und Nvidia ergeben.
Bis zur 3090 war es immer so, dass bei 144 fps die dickste Karte mehr verbrauchte als die kleineren Karten. Bei der 4090 soll das nun auf einmal anders sein.
Die Werte bei AMD zeigen totale Inkonsistenz. Die 7900 XT soll bei 144 fps effizienter sein als die stark abgespeckte 7600 XT und die 7700 XT + 7800 XT? Im CB Test mit Doom bei 144 fps verbrauchte die 7900 XT 306 Watt und die 7700XT + 7800 XT 250 Watt. Schon rein rechnerisch kann die 7900 XT damit nicht effizienter sein.
Die 7800 XT mit mehr Recheneinheiten soll zudem deutlich ineffizienter als die 7600 XT und 7700 XT sein? Das klingt alles andere als schlüssig, zumal 7700 XT und 7800 XT technisch nicht weit auseinander liegen und der Verbrauch der 7700 XT bei deutlich weniger fps quasi identisch ist.
Dann die 7600 vs 7600XT. Bei maximalen fps verbraucht die 7600XT etwa 30 Watt mehr bei nur 10% mehr fps (nur durch den VRAM bedingt), soll dann aber bei 144 fps auf einmal deutlich effizienter als die 7600 non XT sein?
Alles in allem habe ich große Zweifel am Wahrheitsgehalt des Tests.
 
Zuletzt bearbeitet:
bei 144fps@1440p in nem light Game können u.U. die ganz großen Grakas dann Teile der Architektur schlafen legen
(jede moderne Graka hat DeepSleep-States zum Rumbummeln)

um Das komplett beurteilen zu können, müsste man mal HWinfo unter Volllast an der Stelle vs 144fps
vergleichen, ... kann sein, das dann mit nur 144fps@1440p beim SOC+Vram deutlich weniger gebraucht wird
(SOC wäre bei NV der Memorycontroller)

bei ner 4090 oder ner 7900xtx könnte ich mir schon vorstellen, das nicht die volle Bandbreite benötigt wird,
= Sparpotential

und
ne kleine Graka läuft dann bei 144fps vllt. noch am Limit mit >1,1Volt auf den Shadern, wo die Großen
gerademal mit minVolt <750mV laufen

btw.
Das es bei einer 7900xtx den DeepSleep-Effekt nur bis 1440p gibt mag daran liegen, das sich AMD nicht vorstellen konnte, das Jemand 1k€ für ne Graka ausgibt und dann in 1080p rumgurkt, ... wie die weltfremden Reviewer.
(im Effizienztest)
 
Zuletzt bearbeitet:
Zurück
Oben