Test Nvidia GeForce RTX 5090 im Test: DLSS 4 MFG trifft 575 Watt im 2-Slot-Format

Also bei 900 mV liegen bei der 5090 Ventus stock 1.920 MHz an. Bei 950 mV sieht die Welt schon anders aus (2.5XX MHz). Aber eben auch die maximale Leistungsaufnahme.
Mag sein, dass es Chips gibt, die mit +580 MHz stabil laufen, aber darauf verlassen würde ich mich nicht. ;)
Und bei +780 MHz (2.700 MHz) erst recht nicht.
Mag sein, dass Top-Modelle etwas mehr bei 900 mV anliegen haben, aber das sind keine Welten Unterschied.
Zudem: Es gibt Games, die sehr viel Spannung (bei gleichzeitig wenig Powerlimit) anlegen, z.B. Assassins Creed oder Far Cry. Dort verschenkst du dann mehrere Hundert MHz (dort liegen bis zu 2.8XX MHz an), die normalerweise bei z.B. 1.025-1.075 mV anliegen.
 
Das würde aber dem Tutorial im Reddit-Beitrag widersprechen, oder?
 
Das würde ich nicht sagen.
Ich habe in den ganzen Jahren schon von vielen Leuten erfahren, die angeblich ein absolut stabiles UV-Setup hatten, dass sie dann irgendwann doch eines Besseren belehrt wurden.
Wer wirklich denkt, stock-Leistung in allen Spielen oder Benchmarks (es gibt stark unterschiedliche Verhalten) mit bis zu 30% weniger Leistungsaufnahme zu bekommen, der ist meines Erachtens etwas naiv.
Natürlich kann (fast) jede Karte / jeder Chip mit einer (etwas) besseren Effizienz konfiguriert werden, aber diese liegt eher bei 5-15%.
Muss jeder selber wissen / ausprobieren / Spaß dran haben.
 
nutzen wir dich mal den thread für ne spekulation die leider so eintreten wird

Da klar ist das von ada blackwell design kein schrink auf n2 geben wird was anhand von sram nicht Verkleinerbar ist verständlich ist.
Nun was ist mit feynman
Bisher tritt der apu Weg zu 80% zu
Es gibt einen rubin high end chip in n3 mit grob 830mm² Fläche das maxed was geht ohne gaa
Dieser ist auf tsmc n3 designt wafer um die 20000$ letzter Preisanstieg davon von 18000$ in 2024 +11%

So ein chip wäre bei grob 327$ mit ner yield von nur 48% 61 0 defects 29 good Die
Der chip hat laut Gerüchten 8 gpc a16sm a256 alu mit 128mb L2 cache halbe Größe vs blackwell design je alu
eine nr kleiner also grob 467mm 4gpc 64mb +-118 chips 170$ das wären aber nur 256*4*16 =16384 alu vs derzeit 21760 alu
Und das bei gleichem preis der chips
Und der Takt rette die arch nicht +- 3,2ghz etwa rtx5090lvl aber mit -43% strombedarf
+- 328w

Der größere chip wäre bei 600w Deckel grob bei +30% vs blackwell und das bei nenn chipreis von 327$
Das wird nicht am desktop kommen und wenn nur als titan ähnlich zu volta

n2 wird die maxed chipfläche halbiert also nur 420mm² chips möglich dank gaa womit die menge an alu und cache Größe limitiert wird
Und da cowop noch nicht chipreif ist. Sowie nvidia kein patent hat für chip auf chip Technik alles ist noch planar
Nehme ich an das nvidia plant intels foveros Technik planare chips auf nenn aktiven interposer zu nutzen womit feynman sicher ne apu wird und der cache ähnlich zu amd inf cache als l3 kommen wird.
Das erfordert das der cache geviertelt werden muss. Auf tsmc n2 node womit die alu bei gpu grob 4gpc a18sm a256 alu mit 32mb l2 sein werden.
aktiv dann 4gpc a16sm grob +- rtx5090lvl bei 210w gpu tile +20w cache tile +50w an cpu tile = grob 280w tdp. +- 512mm² chip
Die Leistungssteigerungen kommen danach in a14 node was nochmal +10% Takt bringt etwa 4,5ghz beim Nachfolger 2030 rum +30% vs dem Vorgänger da dies derselbe sockel ist unklar wie viele pins tippe auf 2800 dank 512bit si.
Darauf plant tsmc mit a12 den nächsten schritt mit verbesserten bspd und einen neuen Netzwerk für die wärme Abführung zu verbessern -nochmal 50% Energie bedarf.
Das wird dann in Takt umgewandelt sprich dann 5,6ghz das wäre dann 2032 und die letzte xbox pc perf. update.
Danach folgen bismut chips da reden wir über min 12ghz gpu und 20ghz cpu da zugleich auch langsam auf trinäre Speicherzelle gewechselt wird zuerst Datenspeicher also ssd dies beginnt etwa 2034 an 2036 am desktop
Sprich wenn ein Ableger auf Desktop kommen wird sind es nur titans die man an einen threadripper system ab 32 kernen mainboard ab 500€ cpu ab 800€ einsetzen kann.
dgpu sind quasi diese gen und maxed ein refresh dieser gen amd sowie nvidia die letzten dgpu die man holen kann.

Die Zukunft ist ai am desktop ob wir wollen oder nicht. Das hat folgen win 12 wird ne npu erfordern und min 48gb an ram
Zugleich wird win 12 das os für die xbox die Ursache liegt an den Urteilen aus US wo es keine exklusiven shop mehr geben kann für ne Konsole daher verzichtet man ganz drauf.

Ein upgrade auf win 12 ist nur mit zen6 möglich oder intels so 1954 die haben bald npu
Das wird die letzte option sein vor den apu only systemen alle aktuellen cpu bis auf die 8xxxg Modelle haben keine npu
Alle intel desktop cpu haben keine npu nur laptops.
Der Grund warum win 12 sich auf q2 2027 verspäten wird.
Die Industrie will Einheitlichkeit und weniger Freiheit sprich alle daten sollen verfügbar sein.
Da klingelt nicht nur bei mir die Alarmglocken.
Der Ausweg ist Virtualisierung und das kostet Perf. insbesondere da dies auf linux hinausläuft mit win 10 oder win 11 vm mit einer dedizerten gpu solang die shops noch win 11 unterstützen das wird bis 2040 sein.
nvidia wird vgpu irgendwann 2026 freigeben und bis zu rtx20 unterstützen .
amd hat was ähnliches dann drin.

Diese Zukunft gefällt mir auch nicht, ich hätte lieber mehr perf. durch neue nodes und 3d chips gehabt sprich cowop und cache getrennt von alu und si
Das hätte nochmal die perf. vervierfacht bis irgendwann bismut chips gekommen wären.
Das man sich für die Radikale ai Zukunft entschieden hat lag am marktpotenzial sprich neue chips wo der markt begrenzt ist oder komplette industrie die die gewinne in die Billionen Bereich fördern kann war klar das da eher die ai route genommen wird.
jetzt will man den Strombedarf drastisch senken, das gute das wird die apu ab intel hammer lake 2028 an und amd am6 2027 machen da beide auf n2 mit gaa setzen perf. um die rtx5090 rum bei 300w tdp

Das schlechte diy pc wird es einen Abverkauf geben insbesondere rtx 5000 6000 ada sowie rtx pro 5000 6000 sind gefragt.
Da diese die letzte option sind für win 11 danach lohnen die sich nicht mehr und auch der kleine Trost das alle server diese verkaufen werden ab 2028 relativ günstig

Ärgerlich das es so kommen wird. aber nun da sind wir, was machen wir daraus
Aktuell win11 rtx40 gpu maxed upgrade also rtx5000 ada oder rtx6000 ada der haken 300w und 400w tdp
das fixed nur das vram problem das ab 2028 kommen wird min sind 24gb erforderlich für games
Daher wird es wohl eher neues system auf am6 + rtx4070 werden die auf 150w (pl 75%) gedrosselt wird für retro games wo die spiele kein win 12 unterstützen.
Upgrade bis dahin mla+ oled oder hoffentlich bald pholed Bildschirm. in 1440p
Und dann jedes Spiel die unterschiedlichen cpu limits bei 1080p bewundern bis zen6 was einen ordentliche Verbesserung wäre aber da fehlt die passende gpu für ähm rtx4070 ti super die hab ich nicht
Das cpu limit bleibt aber und für die rtx4070 sind die oft nur 85-95% load kein 600€ upgrade wert.
 
Sind die Idle werte der 5090 eigentlich noch so wie im test oder hat da nvidia nachgebessert ? 30W im idle find ich schon hardcore, da ich nur wegen VR zu dieser Karte wechseln will, eine 5080 ist aufgrund von 16GB keine option. Da meine Kiste überwiegend im Idle/surfmodus ist kann sich da auf lange sicht schon was läppern.
Meine XTX bekomme ich zum teil auf 4W im idle, aber da AMD sich 0,0 für funktionierende VR treiber interessiert soll die karte raus.
 
@Robman86
Absolut. UV ist natürlich immer für jede GPU individuell zu konfigurieren, damit sie in den gewünschten Anwendungsfällen auch stabil läuft. Meiner Erfahrung nach machen es die Nvidia-GPUs es dem Anwender hier aber relativ einfach, deutlich effizienter bei nur geringen Leistungseinbußen unterwegs sein.

Powertarget ist eine relativ simple Möglichkeit, vorziehen würde ich allerdings immer Undervolting mit festem Maximaltakt.
 
Hatsune_Miku schrieb:
Sind die Idle werte der 5090 eigentlich noch so wie im test oder hat da nvidia nachgebessert ? 30W im idle find ich schon hardcore, da ich nur wegen VR zu dieser Karte wechseln will, eine 5080 ist aufgrund von 16GB keine option. Da meine Kiste überwiegend im Idle/surfmodus ist kann sich da auf lange sicht schon was läppern.
Meine XTX bekomme ich zum teil auf 4W im idle, aber da AMD sich 0,0 für funktionierende VR treiber interessiert soll die karte raus.
Ich vermute, dass mit Erscheinen der 5090 auch eine neue Funktion in Win11 gab, die zu den Ergebnissen geführt hat. Ich konnte mir auch erst nicht erklären, warum meine 4090 und dann die 5090 plötzlich so viel in Idle benötigt. Deaktiviert man in Windows "Farbe für Apps automatisch verwalten", geht der Verbrauch in Idle deutlich zurück.

Mit GPU-Tweak wird mir mit der 5090 bei 4K und 240Hz ca. 15w angezeigt. Bei 120Hz deutlich unter 10w.
 
  • Gefällt mir
Reaktionen: Hatsune_Miku
Hatsune_Miku schrieb:
Sind die Idle werte der 5090 eigentlich noch so wie im test oder hat da nvidia nachgebessert ?
Es ist halt ein riesiger Chip und die meisten werden ihre GPU nicht explizit mit Stromsparsettings betreiben. Bei mir (4K@120Hz/10Bit) braucht die Astral knapp 15-20W im Idle, wenn mal ein Fenster bewegt wird oder ähnliches aber schon gerne mal 30-40W.

1759565893373.png


Mit Sicherheit könnte man das optimieren, aber wegen 10-20W mache ich mir da nicht die Mühe und verzichte unter Umständen auf Leistung.
 
  • Gefällt mir
Reaktionen: Hatsune_Miku
Das die 5090 unter 10W gehen kann klingt schonmal super, kommt wohl auch auf den monitor an, ich schaffe ja bei auch zum teil unter 5w"4k144" während die tests fast alle sagen ~17W.
Nen bekannter mit der 9070XT kommt zb nur bei 4k60 auf unter 10, alles mehr als 60hz lässt die Karte ausrasten bezüglich idle verbrauch.
Mal schauen was an BF für deals kommen.
Hatte ja anfang des jahres schonmal ne 5090 von inno3D welche schon im Browser warum auch immer ausgerastet ist.
Mein Plan ist ne Astral weil das leider die einzige ist mit der spannungsüberwachung der pins.
Will das alles verbinden wenn ich mein OS von 10 auf 11 wechsel, dann soll die neue karte mit rein und auch die hier schon ewig liegende 4TB ssd rein
 
Zurück
Oben