Test GeForce RTX 5090 mit weniger TDP: Leistung mit 575, 450 & 400 W vs. RTX 4090 im Benchmark

Nochmal als Vergleich bezüglich PL bei Computerbase.de vs UV mit Kurve bei Tech Yes City:

@Volker: Das hast du bei den Laptop GPUs sehr ähnlich getestet.

Ist es bei euch angedacht, das in Ruhe für die 5090 und 4090 auch zu testen mit UV bzw. UV & OC vs PT Methode?
Es müssen ja nicht viele Spiele sein.
Da reichen ja 3 Spiele DX11, DX12 mit und ohne RT im absoluten GPU Limit!
Please! 😭

RTX 5090 Undervolting Results: -6% at ~400W​

Discussion
Taken from Tech Yes City's video here. Big shoutout to him for being the only reviewer I've seen so far exploring this.
It's only in Space Marine 2, but here are the results:
Card​
FPS​
Power (W)​
dFPS​
dPower​
RTX 5090 Stock​
133​
575​
0%​
0%​
2.7GHz @ 960mV​
133​
485​
0%​
-16%​
2.5GHz @ 900mV​
125​
405​
-6%​
-30%​
2.3GHz @ 875mV​
117​
356​
-12%​
-38%​
RTX 4090 Stock​
97​
415​
-27%​
-28%​

So RTX 4090 Stock vs 5090 2.5GHz @ 900mV has roughly the same power consumption with the 5090 performing ~28% better.

Da heißt für mich persönlich , daß 28 Prozent mehr Leistung für ähnlichen Verbrauch zur 4090 dann wesentlich besser aussehen, vor allem wenn man das größere SI, Speicherbandbreite und Speichermenge, Transistoren im ähnlichen Fertigungsverfahren beachtet.

Vor allem weiß ich durch eigene 4090 UV / UV & OC Tests, dass die PL Variante und auch weniger Spannung gerade im absoluten GPU Limit mit RT vor allem Leistung liegen lässt! Das lässt sich nicht sauber vergleichen!

Leider ist der idle und Teillast Verbrauch trotzdem nicht schön zu reden!
Vom Preis gar nicht erst zu reden!

Interessent wären hier unterschiedliche Engines im absoluten GPU Limit (DX11, DX12, DX12 oder Vulkan mit RT) unlimited FPS, 144 Hz, 120 Hz, 60 Hz mit vor allem den wichtigen 1 %, 0,1% und den Frametimes!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: EUF666, dohderbert und SaschaHa
Für die schnelle Stromeinsparung ohne viel Aufwand und geringe Leistungseinbuße scheint das ja ganz OK zu sein.
UV bringt einfach deutlich mehr, aber scheint gefühlt immer mehr in Vergessenheit zu geraten, da die letzten Reviews eher aufs TDP reduzieren ausgerichtet sind, nicht nur bei CB.
Tatsächlich schade, denn das ist für mich zumindest das einzig Wahre, auch wenn es mit deutlich mehr Stabilitätstests einhergeht.

Zumindest die Werte aus dem Thread der hier bereits gepostet wurde, sind vielversprechend.

https://www.reddit.com/r/hardware/comments/1i8emnz/rtx_5090_undervolting_results_6_at_400w/
 
  • Gefällt mir
Reaktionen: minalion, EUF666, Vigilant und eine weitere Person
Fighter1993 schrieb:
Ich bin gespannt was das mit den Preisen machen wird.
So ein Erfolg wie bei RTX 4000 wirds diesmal nicht das ist kla.

Und auch wenn die 5090 gekauft wird. Die Modelle daraunter werden nicht der Knüller....

evt müssen sie dann über den Preis gehen.

Oder höchst Manipulativ wieder Strafen an die Boardpartner zahlen um die Teile zu verschrotten, so das der Preis nicht sinkt.
Dafür sollten sie dann aber von anderen Stellen mal gerügt werden....
Und jetzt kommt eine 5080 die noch mehr entäuschen wird...
 
  • Gefällt mir
Reaktionen: Uthleber
H1ldegunst schrieb:
Puuh, also wenn ich die Speichertemps der FE aus dem ursprünglichen Test sehe, sieht zumindest der Speicher das anders mit 96°C😅
Dass der Hotspot sich nicht mehr auslesen lässt, lässt auch Vermutungen zu...
Das hatte ich so nicht auf dem Schirm :-D
 
@Jan

Wenn die RTX 5090 mit 400W läuft, werden dann auch die elektronischen Störgeräusche weniger bzw. weniger störend?
 
rentex schrieb:
Und jetzt kommt eine 5080 die noch mehr entäuschen wird...
Die sind nur kaufbar wenn man eine 4080 abgibt für gutes Geld und man eine FE bekommt...

also alles aus wissenschaftlichen zwecken :D
 
  • Gefällt mir
Reaktionen: rentex
Hatte gestern beim 8auer genau den selben Gedanken gesehen, für ihn waren 90% Powertarget sinnvoll und 80% Einzelfall abhängig. Mit 70% war die rtx 5090 jedenfalls deutlich effizienter
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ev4x
DevPandi schrieb:
Turing hat beim gleichen Fertigungsprozess zwar nicht den Megasprung bei der Leistung gemacht, konnte aber bei der Effizienz noch mal etwa darauf legen, das kann Blackwell nicht.
So ganz fair ist der Vergleich aber nicht. Der 12nm TSMC Prozess war durchaus was die Performance und Leistungsaufnahme angeht deutlicher optimiert, desweiteren war der Turing Chip ganze 60% größer als Maxwell und hatte auch kein 512bit großes SI, was man vielleicht für AI Berechnungen gebraucht hat.
Bei den kleinen Blackwells wird das mit der Stromaufnahme vermutlich etwas besser aussehen.

Die Leistungszunahme ist zwischen Turing und Blackwell ähnlich. 30 bzw. 35% laut Meta-Analysen.
DevPandi schrieb:
Egal wie man es an der Stelle dreht und wendet, die RTX 5090 ist eine relativ schwache karte und Blackwell wird eine schwache Generation.
Für die Möglichkeiten halte ich die Generation für durchschnittlich.
Bei den großen Leistungsunterschieden der Tests, schlechtestes Ergebnis CB 24% vs. bestes Golem 46%, ist der Range relativ groß.
 
theGucky schrieb:
4090 gekauft bei 1949€, verkauft bei 1750€. Die Karte ist gut gealtert.
Absolut, und inflationsbereinigt nur wenig mehr als der normale Wertverlust der Investition ohne "Nutzungsverlust" des Produktes selbst, wenn wir von einem Kauf in 2023 ausgehen.
 
Waelder schrieb:
NVIDIA hernehmen sind Verbesserungen schwer aus zu machen.
Die finden wir in DLSS4. DLSS3 Qualität ist jetzt DLSS4 Performance.

FSR4 wird kritisch wichtig, denn warum eine 9070XT kaufen statt einer 7900XTX?

Die nächste Generation wird ein FSR4 vs DLSS4 Match.

Denn in der Hardware kämpfen AMD und Nvidia mit ihren eigenen last Gen GPUs lol

Man kauft sich zukünftig die GPUs, die man für das Budget vs. Maximum der Featuresets haben will.
 
  • Gefällt mir
Reaktionen: Tommy64 und Vigilant
Blaze1987 schrieb:
RTX 5090 Undervolting Results: -6% at ~400W
Das ist zweifellos beeindruckend und zeigt die Brechstange in den obersten fps Auspressungen.
 
Wohl wahr. Der Upgrade-Pfad innerhalb der identischen Gruppe (xx70, xx80, xx90) erscheint aber weiterhin nicht besonders reizvoll.

Moment.... kurz Alu-Hut hervorgezaubert... evtl. sogar (teilweise) Kalkül? 🤫😅
 
Jan schrieb:
Bei uns sah das aber nicht so aus im Schnitt über vier Spiele
Interessant, aber Eure Ergebnisse samt Rezeptionen scheinen im Median generell eher "negativer" oder "kritischer" zu sein.

Schauen wir mal, was die "Releasetreiber" da noch ändern.

btw aus dem Nvidia reddit. In meinen Augen (wörtlich) sehe ich da deutliche Unterschiede, like wtf ist das für ein optischer Qualitätssprung (vs DLSS3 Performance vorher und nun auf DLSS3 Quality Niveau):
1737809185231.jpeg
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: minalion, Fighter1993, Cyberbernd und 2 andere
DerRico schrieb:
Die eigentliche "Schuld" dafür liegt aber nicht bei denen die gut gearbeitet haben und jetzt voll absahnen. Würde jeder genau gleich machen.
Die "Schuld" liegt bei den Pfeifen von AMD, die erst die Fertigung nicht mehr hingekriegt haben (schon vor ein paar Jahren) und nun auch keine ordentlichen GPUs mehr designen. Und bei den Idioten von Intel, für die das Gleiche mit ein bisschen anderen Vorzeichen gilt. Und bei Samsung...

Es ist einfach ein Trauerspiel, was die alle abgeliefert haben und nun kauft der einfache Kunde halt bei den Gewinnern und wir zahlen Monopolpreise für immer weniger aufregende Produkte.
Sorry, aber was für ein Dummer Kommentar.
 
  • Gefällt mir
Reaktionen: Orcon, Tommy64, E1M1:Hangar und 5 andere
https://www.reddit.com/r/nvidia/comments/1i973s8/space_marine_2_dlss_4_performance_looks_better/

4K DLSS 3 Quality (1440p) vs 4K DLSS 4 Performance (1080p) https://imgsli.com/MzQxNDYw


4K DLSS 3 Quality (1440p) vs 4K DLSS 4 Ultra Performance (720p) https://imgsli.com/MzQxNDgx


4K DLSS 3 Quality (1440p) vs 4K DLSS 4 Quality (1440p) https://imgsli.com/MzQxNDg4


Da finde ich auch :

"In Cyberpunk with Transformer DLSS4, Ultra performance looks better than CNN DLSS3 in Performance mode."

@Jan YMMV 🤷‍♂️🤔
 
  • Gefällt mir
Reaktionen: bttn
Laphonso schrieb:
Das ist zweifellos beeindruckend und zeigt die Brechstange in den obersten fps Auspressungen.
Es ist eine erste interessante Richtung!

Das kann je nach Spiel anders aussehen vor allem mit RT und je nach Engine und Implementation.

Es gibt einfach Spiele, welche nicht sauber programmiert sind.

Das einzige positive Spiel, welches absolut sauber skaliert, sind die letzten Doom Teile.
Die sind m.E. perfekte Vergleichstitel was Skalierung anbelangt für UV Test.
 
  • Gefällt mir
Reaktionen: Laphonso
@Laphonso
Wenn man genau hinschaut, sind mit DLSS 4 Perf. aber ein paar Fehler erkennbar. Die gehen im Gesamteindruck, und vermutlich in Bewegung erst recht, unter. Sind aber da.

1737809732660.png
1737809769939.png

1737809831026.png
1737809862790.png


Schon sehr gut, aber auch (noch) nicht gänzlich fehlerfrei im Vergleich zu DLSS 3 Q.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: dohderbert und Laphonso
Vigilant schrieb:
@Laphonso
Wenn man genau hinschaut,
Wenn ich überlege, wo wir mit DLSS aus dem Herbst/Winter 2018 und dem alten Modell (das verwaschen war) herkommen, ist das 6,5 Jahre später qualitativ ziemlich irre. Und es wird ja weiter verfeinert.

FSR4 wird hier ebenfalls (hoffe ich) showcases haben. Die Frage ist: Läuft FSR4 auf den RTX5000 GPUs uneingeschränkt. Und auf RDNA2 und RDNA3?
AMD wird doch wohl nicht den in unser Community so verhassten vendor lockin probieren! ?! :mad:

Ironie off, m.E. müssen sie das längst ^^

Aber ich sehe gerade, das ist ja noch der TDP Limit Thread:

Welche Custom hat den derzeit den worst factory OC case?
Die Suprim OC mit 725 Watt, oder was war das?
 
  • Gefällt mir
Reaktionen: Bolwerk, Tornavida und Vigilant
Zurück
Oben