Test GeForce RTX 5090 mit weniger TDP: Leistung mit 575, 450 & 400 W vs. RTX 4090 im Benchmark

eastcoast_pete schrieb:
Wobei die Entscheidung, in welchem Knoten ein Chip gefertigt wird, v.a. von der Firma (Nvidia) abhängig ist. Wenn Nvidia hier eine von TSMCs N3 Knoten bevorzugt hätte, wär TSMC wahrscheinlich durchaus in der Lage gewesen, das zu realisieren. Nur hätte so ein großer Monolith in N3 nochmal deutlich mehr gekostet. Die Frage ist dann auch, ob ein (theoretisch) noch effizienterer Knoten es aus Nvidias Sicht Wert gewesen wäre. Andersrum, würde Nvidia deswegen mehr 5000er RTX verkaufen? Wohl eher nicht. Nvidia weiß eben, daß sie sich hier nicht strecken mussten, denn gerade die 5090 steht konkurrenzlos alleine auf weiter Flur. Da ist die Entscheidung, die Fertigung im wesentlichen so zu belassen, wie sie sich für Ada bewährt hat, logisch.

Außerdem hatte TSMC in der frühen Phase von N3 Probleme. N3B wurde nur von Apple im großen Stil gebucht (M3, A17) und man ging sehr schnell zu N3E über (M4, A18). N3E hat zwar gegenüber N3B eine etwas geringere Packdichte, liefert aber deutlich bessere Yields sowie geringeren Verbrauch und besseres Taktverhalten. Viele Kunden von TSMC haben daher N3B ausgelassen und auf N3E gewartet.

Kann sein, dass N3E für Blackwell etwas zu spät kam und man daher lieber bei der angepassten Version von N5 namens 4N geblieben ist. Bei AMD ist es ja ähnlich, RDNA 4 wird in N4P produziert und das ist ja "nur" ein verbessertes N5 (RDNA 3).

Für Rubin ist N3 gesetzt, also min. N3E, eher N3P, wenn nicht sogar schon N3X verfügbar sein wird. Die Test-Produktion soll Ende des Jahres beginnen.
 
  • Gefällt mir
Reaktionen: eastcoast_pete
Wenn man auch die Taktfrequenzen angleicht, steigt die Effizienz etwas, aber dann wirds etwas zu offensichtlich, dass die eigentlich relevanteren Geschwindigkeitsunterschiede sogar auf unter 5% sinken. Mit Effizienz allein hat noch keiner FarCry gespielt. Klar ist sie schnell aber man muss ja nicht uebertrieben darstellen und foppen - ueberlasst das dem CEO der zuviel Kunstlederpolitur schnueffelt
 
E1M1:Hangar schrieb:
Wow, das ist die krudeste Schönrechnung die ich je gesehen habe.

Am Ende hast du dennoch beide Karten bezahlt, auch wenn du eine in Zahlung gibts / verkaufst.
Seltsame Schönrechnung - so schlimm wie es manche darstellen wollen ist es dennoch nicht, bspw. in meinem Fall:

  • 1.400€ für die RTX 4090 kurz nach Release bezahlt (neu & versiegelt mit Rechnung)
  • 1.700-1.800€ aktueller Verkaufspreis bei Ebay
  • 2.349€ für die RTX 5090 bei Release

Macht nun ~600€ Aufpreis für eine RTX 5090 für vermutlich wieder 2 1/2 Jahre.

600/1750=0,343 - sprich 34% Aufpreis für ~30% Mehrleistung. Unschön, aber kein Drama.

600€/30 Monate - 20€ im Monat oder 2 gut belegte Döner :stacheln:

Gibt eindeutig schlimmeres auf der Welt, wenn ich da an andere Hobbies denke und hier machen manche ein Fass wegen läppischen 20€ im Monat auf :rolleyes:
 
MalWiederIch schrieb:
Gibt eindeutig schlimmeres auf der Welt, wenn ich da an andere Hobbies denke und hier machen manche ein Fass wegen läppischen 20€ im Monat auf :rolleyes:
Gibt es sowieso. Ob man eine 5090 kauft oder nicht entscheidet man selbst. Wenn hier irgendwelche Experten meinen ihre Meinung dazu zu äußern sollen Sie das halt tun. Das kennt man ja bei jeder Gen. Ändern wird es nix daran ob einer kauft oder nicht.

Und wir alle hier wissen ja auch das der großteil derer die hier niemals sowas mitmachen würden, am Donnerstag rumheulen wenn es keine Karten für Sie gab.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: TigerNationDE
Ano_Dezimal schrieb:
Neukaufpreis abzüglich lockerer 1500€ für die alte 4090 machen die Karte sogar günstiger als die 4090 war.
Is in der Rechnung der 4090 auch deine 3090 drin? Dann funktioniert das nämlich nicht mehr. Aber jeder rechnet sich das für sich schön :D Prinzipiell überleg ich auch meine zu Tauschen, aber ehrlichgesagt bremst mich weniger der Preis oder der Leistungsgewinn, sondern eher die nicht vorhandenen Games xD
 
Bei selben Verbrauch (450 Watt) liefert die 4090 85% einer 5090 ? 15% Differenz !
Schwach für eine neue Gen (für 2500 €), eher www.peinlich.de !! :freak:
1737835020533.png

Ergänzung ()

Ano_Dezimal schrieb:
Neukaufpreis abzüglich lockerer 1500€ für die alte 4090 machen die Karte sogar günstiger als die 4090 war..
Made my Day :D
 
  • Gefällt mir
Reaktionen: gedi und E1M1:Hangar
Ano_Dezimal schrieb:
Der längste Balken ist halt einfach super
Ich brauch ja nicht den Ersatz (Auto, Grafikkarte oä.).
Habe ich in Naturform 😜
 
  • Gefällt mir
Reaktionen: JetLaw und SweetOhm
Oha, das ist aber leistungstechnisch echt nicht so berauschend.
 
  • Gefällt mir
Reaktionen: SweetOhm und DagdaMor
radoxx schrieb:
Die Zeiten des automatischen Vorsprungs durch die Fertigung scheint derzeit einmal stark eingebremst.

Welcher Vorsprung durch die Fertigung? Die 5090 ist doch auf dem gleichen Node wie die 4090... :watt:

Es sollten vor allem Sprünge durch die Architektur gemacht werden, nicht durch die Fertigung.
 
  • Gefällt mir
Reaktionen: SweetOhm und JetLaw
Nureinnickname! schrieb:
Maxwell und Turing sollen den gleichen Fertigungsprozess gehabt haben?
Gemeint ist natürlich, dass diese denselben Fertigungsprozess wie die Vorgänger nutzen.
MalWiederIch schrieb:
  • 1.400€ für die RTX 4090 kurz nach Release bezahlt (neu & versiegelt mit Rechnung)
  • 1.700-1.800€ aktueller Verkaufspreis bei Ebay
  • 2.349€ für die RTX 5090 bei Release
1400 Euro haben wohl die wenigsten für eine 4090 gezahlt. Du gehst davon aus eine FE zu bekommen und wenn nicht? Dann kannst du, gut und gerne noch mal mindestens 500 Euro dazu zählen.

Ich sehe das ähnlich wie die meisten hier, von einer 4090 aufzurüsten ist eigentlich Blödsinn. Aber kann ja jeder machen was er will. Trotzdem ist Kritik daran und an der Karte selber erlaubt, wer das nicht erträgt, ist in einem Forum wohl falsch.
 
  • Gefällt mir
Reaktionen: evilhunter, Blaze1987, mirko786 und 2 andere
minimii schrieb:
hätten mich auch Ergebnisse unter 400 noch durchaus interessiert.


Danke für den Test.
Test nicht gelesen ?!? :rolleyes:
Ergänzung ()

ASCORBIN schrieb:
Die 4090 war und ist eigentlich noch immer ein „bänger“ aus dem Hause NVIDIA
So so ... (siehe Anhang)
Ergänzung ()

Ano_Dezimal schrieb:
Meine Oma (gott hab sie seelig) sagte immer "Mein Kind, gib dein Geld aus wofür du willst solange du es noch kannst"
Meine Oma sagte immer : "Höre nie auf Leute, die ihr Tun mit Sprichwörtern rechtfertigen wollen"
 

Anhänge

  • Bench Stalker RT + FG.jpg
    Bench Stalker RT + FG.jpg
    195,8 KB · Aufrufe: 134
Zuletzt bearbeitet:
eastcoast_pete schrieb:
Die Frage ist dann auch, ob ein (theoretisch) noch effizienterer Knoten es aus Nvidias Sicht Wert gewesen wäre. Andersrum, würde Nvidia deswegen mehr 5000er RTX verkaufen? Wohl eher nicht. Nvidia weiß eben, daß sie sich hier nicht strecken mussten, denn gerade die 5090 steht konkurrenzlos alleine auf weiter Flur.
Eben, es war schlicht eine wirtschaftliche Entscheidung von Nvidia, "nur" auf N4(P) zu setzen. AMD wird mit RDNA4 nach bisherigen Schätzungen wohl bestenfalls knapp hinter einer 5070 laden. Da gibt es also keinen Grund für Nvidia, den teureren N3 Node zu nutzen, wenn man auch günstiger mit N4 vor der Konkurrenz bleibt. So hat man Geld gespart und kann dann bei der nächsten Generation mit, dann günstigerem, N3 nachlegen.
 
  • Gefällt mir
Reaktionen: eastcoast_pete
kachiri schrieb:
Du bist aber ständig beim "feinjustieren", weil das UV dann doch nicht in allen Situationen stabil ist...
Dann einfach PL auf 80% (in Falle meiner 4070 Super) oder sogar etwas niedriger. Dann kackt dir nicht plötzlich das Spiel ab.
Deswegen habe ich ja geschrieben, es benötigt mehr Stabilitätstests, ist aber wie auch in dem Thread verlinkt, schon ein gutes Stück besser als die einfache TDP Reduzierung. Du behältst denselben Takt (oder verringerst ihn wenn du willst) und hast die gleiche Ersparnis ohne den Performanceverlust. Manchen sind die paar FPS egal, aber wenn man beides haben kann, warum nicht :)

Ich habe meine Karte einmal richtig eingestellt und sie lief ca. 1 1/2 Jahre ohne ein einziges Problem. Dann ist sie tatsächlich in einem Spiel instabil gewesen.. ich weiß gerade nicht mehr welches. Dann habe ich den Takt um 20MHz oder so reduziert und siehe da, es ist nach sehr kurzer Einstellung bis jetzt wieder alles stabil.

Natürlich ist UV damit anfälliger für Instabilität und ist aufwändiger, aber mir macht das Finetuning Spaß und weniger Stromverbrauch, Abwärme und Lautstärke bei derselben Leistung ist auch toll.
Ist nur nicht für jeden, deshalb auch meine Mitteilung darüber, dass die TDP Reduktion ein schneller und auch einfacher Weg ist, ein ähnliches Ergebnis zu erzielen.
Es bleibt halt nur ein bisschen was auf der Strecke, auch wenn es vielleicht nicht ewig viel ist.
 
  • Gefällt mir
Reaktionen: minalion
Tzk schrieb:
Selbst in der 30er Gen war z.B. die 3070 mit 8gb ein schlechter Scherz. Da war zum Launch schon kalt das die Karte zum Rohrkrepierer wird
Ganz so übertrieben war (und ist) das ja nicht: Wenn man bedenkt: Die Karte startete 2020 für wirklich günstige 499€ UVP und stand leistungstechnisch auf einer Stufe mit der (wesentlich teureren) RTX 2080ti.
Dass der VRAM sehr knapp ist, war schon damals klar, aber bis WQHD war das damals noch kaum ein Problem. (Ist es streng genommen auch heute nur bedingt, wenn man nicht wie in den Benchmarks absolut alles auf Ultra stellt.)
Für so einen theoretisch günstigen Kurs, war das ein Nachteil mit dem man leben konnte. In der Praxis ging zu genau der Zeit das Kryptomining durch die Decke und alle Karten waren, wenn man denn überhaupt eine bekommen hat, maßlos überteuert.

Ich hatte in der Zeit großes "Glück im Unglück", denn die Gebrauchtpreise für meine alte (fürs Mining gut geeignete) Vega64 sind so astronomisch gestiegen, dass ich effektiv super günstig upgraden konnte: Ein Miner hat mir für meine gebrauchte Vega64 noch 700€ gezahlt, die neue RTX 3070 aus dem GPU-Drop hat mich 800€ gekostet. Das Upgrade auf die effektiv doppelte Leistung, inklusive neuer RTX-Features hat mich also nur 100€ gekostet. So billig werde ich wohl nie wieder so viel Mehrleistung bekommen. 😅
 
Ich vermisse den IPC-Impact! Die 5090 bietet überall +33% mehr an Einheiten whatever, braucht auch noch mehr Energie, um auf +25% rauszukommen? Sorry, aber diese Generation ist ein Fail. Was hat man N31 verissen, aufgrund seiner 55% mehr an IPC ...
 
gedi schrieb:
Was hat man N31 verissen, aufgrund seiner 55% mehr an IPC ...
55% mehr IPC? Netter Witz
1737843348592.png

(Die 2,3GHz bei der 6900XT wurden gewählt, um die 4 CUs auszugleichen, die ihr zur 7900XT fehlen und somit beide Karten auf die gleichen TFLOPs zu bringen)

Ebenfalls aus dem Test
Der größte Fortschritt zeigt sich in God of War, das auf RDNA 3 um gut 23 Prozent zulegt.
Das war das Best-Case Spiel im Test, viele andere Spiele lagen auch unter 5% Steigerung.
 
  • Gefällt mir
Reaktionen: Quidproquo77 und evilhunter
Gamer567 schrieb:
Man sieht klar nochmal deutlich das die Mehrleistung der 5090 nur durch mehr Durst auf Strom erkauft wurde 😜
und nach 15 Jahren ca 8 GB mehr Videospeicher obwohl Nvidia andere nicht Gaming Grafikkarten mit 96GB Videospeicher verkauft was für ein Ironie ^^
Ergänzung ()

scryed schrieb:
Hm meine 4090 strix sollte doch auf 600watt gehen oder ? Also bei Power target 120% ....Mal sorum testen wenn man der 4090 freien Lauf lässt
Hoffentlich eine OC wegen Garantie ^^ und die flüssige Wasserstoff Kühlung nicht vergessen ^^
 
Gamer567 schrieb:
Man sieht klar nochmal deutlich das die Mehrleistung der 5090 nur durch mehr Durst auf Strom erkauft wurde 😜
(aktuell) 53 Likes für den Kommentar unter einem Test, der zeigt, dass die 5090 bei 450W 17% schneller als die 4090 bei 450W ist und mehr als 2/3 der Mehrleistung eben nicht durch mehr Verbrauch erkauft wurden.

1737844595556.png
 
  • Gefällt mir
Reaktionen: Quidproquo77, Jan, dohderbert und 2 andere
Zurück
Oben