Reichen 850W für eine 5090?

Yuuuki

Ensign
Registriert
Okt. 2023
Beiträge
141
Hallo,

Ich habe mir erst letztes Jahr einen neuen PC zusammen bauen lassen, würde aber jetzt gerne von der 4090 auf die 5090 wechseln da ich einen guten Preis dafür gefunden habe.

Ich habe aktuell ein Msi ATX 3.0 Gold Plus Netzteil in der 850W Version. Und dazu einen 7800x3d. Ansonsten halt klassisch, Mobo, RAM, CPU Kühler und 5 Lüfter im Gehäuse. Keine fancy RGB Beleuchtung, keine Wakü und am PC selber ist auch nix angeschlossen abgesehen von USB dongles.

Ich weiß das für die 5090 eigentlich 1000w empfohlen ist als mindest Anforderung. Allerdings hab ich in einem Artikel über den Verbrauchder 5090 von PCGH gefunden wo sie schrieben das wenn man eine 7800x3d hat auch wohl eigentlich ein 850W Netzteil reicht?

Es geht mir übrigens nicht darum Geld sparen zu wollen, sondern das das Kabel Management sehr gut gemachten worden ist weil es eben professionell gemacht wurde und ich selber das niemals wieder so hinkriegen würde.

Hatte dann überlegt nur das Model zu wechseln, also das exakt selbe Netzteil zu kaufen in der 1000 Version aber nach meiner Recherche wird selbst dann empfohlen alle Kabel mit zu tauschen weil das Pin Layout anders sein könnte - selbst wenn es exakt die gleiche model Reihe ist.

Könnte ich es mir der 850W erstmal ausprobieren? Was könnte da im schlimmsten Fall passieren?

Danke für die Hilfe und Liebe Grüße

Nachtrag: ich spiele auf 5K auf einem 45 Zoll Monitor. Ich weiss nicht in wie weit das evtl relevant ist.
 
Zuletzt bearbeitet:
Grundsätzlich ja. Meine 5090 nimmt sich fast nie mehr wie 200W in den Spielen, die ich spiele. Meine 5070 TI davor nahm sich wesentlich mehr.
 
Yuuuki schrieb:
würde aber jetzt gerne von der 4090 auf die 5090 wechseln da ich einen guten Preis dafür gefunden habe.
Du bist dir bewusst darüber, dass die Mehrleistung allerhöchstens mess-, aber nie spürbar sein wird?

850 W sind ausreichend. Pass aber auf, dass alle Stecker gut sitzen. Anfangs würde ich das Seitenteil offen lassen und ab und an mal kontrollieren, wie heiß der Stecker an der GPU wird.
 
  • Gefällt mir
Reaktionen: Firefly2023
Da ich auf 5K spiele auf einem ultrawide Screen sollte in dem Fall tatsächlich ein spürbarer Unterschied da sein.

Und danke für den Tipp, das mache ich.
 
  • Gefällt mir
Reaktionen: lazsniper, Aduasen und cyberpirate
wrglsgrft schrieb:
Du bist dir bewusst darüber, dass die Mehrleistung allerhöchstens mess-, aber nie spürbar sein wird?

Warum sollte man 30% mehr FPS nicht spüren?

Yuuuki schrieb:

Reichen wird es, würde aber wohl trotzdem die 5090 auf ~500 Watt limitieren, kostet kaum Leistung, hast aber dann etwas mehr Spielraum.
 
  • Gefällt mir
Reaktionen: EUF666, Maxysch und Aduasen
Wie genau limitiert man die Watt denn? Über Nvidia App? Dort hatte ich aus Interesse gestern schon mal rein geschaut und so ein Leistung limitieren Möglichkeit gefunden, allerdings nur eine Prozent Anzeige für Spannung und Leistung.
 
Wenn deine GPU maximal 575 Watt zieht (100%), dann einfach auf 0,85 (85%) stellen. Schon hast du ein Limit von knapp unter 500 Watt gesetzt.

Kannst dann gerne mal ein Spiel oder Benchmark testen, aber die Leistung sollte, wenn überhaupt, nur minimalst runtergehen.
 
  • Gefällt mir
Reaktionen: Aduasen
Ayo34 schrieb:
Kannst dann gerne mal ein Spiel oder Benchmark testen, aber die Leistung sollte, wenn überhaupt, nur minimalst runtergehen.

Übrigens generell eine gute Idee.
Ich habe das mit meiner 4080Super nämlich noch nicht getan, obwohl ich inzwischen die FPS auf 100 limitiert habe.
 
  • Gefällt mir
Reaktionen: Ayo34
@Aduasen Meine 4080 läuft von Anfang an mit max. 250 Watt. Macht 2-3% je nach Spiel/Anwendung aus. Dafür 70 Watt weniger und jetzt im Sommer einfach etwas weniger Abwärme.
 
  • Gefällt mir
Reaktionen: Aduasen
Stanzlinger schrieb:
Grundsätzlich ja. Meine 5090 nimmt sich fast nie mehr wie 200W in den Spielen, die ich spiele. Meine 5070 TI davor nahm sich wesentlich mehr.
Das liegt dann aber an deinen Spielen, Settings oder Aufloesung?

Ich habe eine 4090 und die zieht routinemaessig ihre 410 Watt in Games.

(3440p, ultra, dlss quality, framegen)
 
Ayo34 schrieb:
Warum sollte man 30% mehr FPS nicht spüren?
Weil es eher deutlich weniger ist. Kommt natürlich immer auf Spiel und Einstellungen an, aber mir wäre die geringe Mehrleistung nicht so viel Geld wert.

Yuuuki schrieb:
Da ich auf 5K spiele auf einem ultrawide Screen sollte in dem Fall tatsächlich ein spürbarer Unterschied da sein.
Du meinst DWQHD mit 5120x1440 Pixel? Da dürften es im Schnitt so 15-20 % sein. Statt 60 also max. 72 fps. Möglich, dass man das spürt, aber eine echte Veränderung isses nicht.

Nicht falsch verstehen, wenn einem das reicht und das Geld wert ist, kann man das schon machen. Aber ich finde die 5090, von einer 4090 kommend, kein lohnenswerte Upgrade.
 
  • Gefällt mir
Reaktionen: Firefly2023, feris und Ayo34
Stanzlinger schrieb:
Grundsätzlich ja. Meine 5090 nimmt sich fast nie mehr wie 200W in den Spielen, die ich spiele. Meine 5070 TI davor nahm sich wesentlich mehr.
Haha das klingt komisch

wrglsgrft schrieb:
Anfangs würde ich das Seitenteil offen lassen und ab und an mal kontrollieren, wie heiß der Stecker an der GPU wird.
Einfach crazy das leute sowas als Hinweis geben. Es haben so viele Leute hier wenig Ahnung. Der Hammer. Dieses Thema ist wenn überhaupt nur relevant wenn die 600W dauerhaft anliegen. Ansonsten komplett zu vernachlässigen.

@Yuuuki 850W reichen. Meine ehemalige 5090 hat ca. 350 Watt gezogen. Habe auch nur ein 850W Netzteil. Die Empfehlung von 1000W basiert auf den 600W die die GPU eigentlich angibt. Die willst du aber weder Hitzetechnisch noch generell haben.

Ich frage mich gerade wieso dir hier welche sagen das die Mehrleistung nur messbar ist. Das ist doch garnicht deine Frage gewesen. Es geht hier nur darum ob dein NT ausreicht.
 
ich nutze die 5090 auch mit einem 850w Netzteil. reicht in meinem Fall. Die Karte läuft im Undervolting und braucht ca. 100W weniger als Stock. Bei 0,9V habe ich Stock Performance bei ca. 100W weniger Verbrauch. bisher hatte ich Maximum ca. 450W bei Cyberpunk mit Pathtracing. bei anderen Spielen bewege ich mich bei 4k/120FPS bei ca. 200-300 Watt
 
Calo84 schrieb:
Einfach crazy das leute sowas als Hinweis geben.
Stimmt, es kam ja auch noch nie zu verschmorten Steckern.

Calo84 schrieb:
Ich frage mich gerade wieso dir hier welche sagen das die Mehrleistung nur messbar ist. Das ist doch garnicht deine Frage gewesen
Weil es Leute gibt, die andere davor bewahren wollen, sehr viel Geld für etwas auszugeben und dann enttäuscht zu sein.

Einfach crazy das manche Menschen weiter denken als bis zur eigenen Nasenspitze...
 
  • Gefällt mir
Reaktionen: FoXz, Firefly2023 und MoinWoll
wrglsgrft schrieb:
Stimmt, es kam ja auch noch nie zu verschmorten Steckern.
Es gab eine hand voll Fälle bei tausenden und abertausenden verkauften Karten. Das Problem ist NICHT existent. Man konnte sogar auf allen Bildern sehen das die User selbst das Problem waren :)
wrglsgrft schrieb:
Weil es Leute gibt, die andere davor bewahren wollen, sehr viel Geld für etwas auszugeben und dann enttäuscht zu sein.
Kann den Leuten halt egal sein. Wenn ich eine 5090 will und nur wissen will ob mein NT aureicht, dann will ich wissen ob das NT ausreicht. Ob du und andere Chaoten hier dann meinen mir mitteilen zu müssen das es sich ja nicht lohnt ist mir komplett egal.

Das ist übrigens einer der Gründe wieso viele hier keine Fragen mehr stellen. Weil es oftmals um ganz andere Themen geht als ums wesentliche.
wrglsgrft schrieb:
Einfach crazy das manche Menschen weiter denken als bis zur eigenen Nasenspitze...
Das sagt einer der hier den Tipp gibt den Stecker zu prüfen. Du bist mir ja ein Held :D
 
Zuletzt bearbeitet:
Bei voller Leistung (575/600W) würde ich die 5090 nicht an einem 850W-Netzteil betreiben. Also entweder Undervolting, sodass Du bei 450W Maximalverbrauch rauskommst, oder das Powertarget auf 75% reduzieren.

Ich hatte die 4090 und jetzt die 5090. Der Unterschied ist geringer als ich mir das gewünscht hätte, aber durchaus spürbar.

@Calo84: Man sollte etwas vorsichtiger sein anderen vorzuwerfen keine Ahnung zu haben, wenn man dann im gleichen Atemzug fragwürdige und falsche Tipps raushaut:
  • Zu Beginn die Temperatur des Steckers und vorallem der einzelnen Kabelstränge zu prüfen (mit geeignetem Werkzeug wie Wärmebildkamera, bitte nicht während des Betriebs Stecker oder Kabel anfassen) kann durchaus sinnvoll sein, selbst wenn man nur eigene Fehler beim Einstecken des Steckers vermeiden will. Dauerbelastung mit 600W ist nicht notwendig, um bei einem minderwertigen/defekten Kabel oder einem falsch gesteckten Stecker einen Kabel-/Steckerbrand zu provozieren. Es muss nur ein Kabelstrang für einige Zeit deutlich stärker belastet werden als die anderen, was durch den dürftigen Aufbau des Stromsteckers an der Grafikkarte passieren kann.
  • Dass Deine 5090 angeblich nur 350W gezogen hat ist ja schön und gut, aber Du gibt nichtmal ansatzweise an, unter welchen Bedingungen (CPU-Limit, undervolted, FPS-Limit usw.). Meine 5090 zieht in der Werkseinstellung regelmäßig die vollen 575W, besonders in Spielen mit Pathtracing. Netzteile legt man auf die Maximalbelastung aus, nicht auf irgendeinen gefühlten Verbrauchs-Durchschnittswert.
  • Dass man, wenn man vor hat aufzurüsten, darauf hingewiesen wird, wenn sich ein bestimmtes Upgrade nicht lohnt, ist generell sinnvoll. In diesem Fall ist es allerdings nicht richtig, da die 5090 schon gut 30% schneller ist, vor allem in Situationen wo die Mehrleistung überhaupt gebraucht wird (Pathtracing).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: NerdmitHerz, Alphanerd, uNh0Ly und 3 andere
Yuuuki schrieb:
Was könnte da im schlimmsten Fall passieren?

Klick aus.

Yuuuki schrieb:
Könnte ich es mir der 850W erstmal ausprobieren?

Natürlich.



Das z.b. zeigt meine Steckdose unter Last (5090 + 9550x3D). Da ist noch ein Monitor dranne. Und nicht vergessen. Dein Netzteil kann 850+Wandlungsverluste aus der Steckdose ziehen und kurzfristig auch deutlich mehr bevor es Klick aus macht.

1750752742048.webp


Vielleicht solltest Du auch einfach mal beim Zocken auf ein Energie-Messgerät an der Steckdose schielen, damit Du ein besseres Gefühl dafür bekommst, was da abgeht (Geld genug scheint ja vorhanden zu sein, so dass es an dem 10er für ein Messgerät nicht scheitern sollte). Und dann ist es doch ein einfaches mal den Kopf zu benutzen und zu rechnen was passiert wenn Du vom 500W-Bios auf ein 600W-Bios wechselst. (Oder was auch immer das Bios Deiner unbenannten 4090 für ein Power-Limit bietet).

Viel besser als 100 Leute auf der Straße fragen. Du siehst ja was dabei rauskommt^^
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: NerdmitHerz, Firefly2023, Dandelion und 2 andere
MoinWoll schrieb:
In diesem Fall ist es allerdings nicht richtig, da die 5090 schon gut 30% schneller ist, vor allem in Situationen wo die Mehrleistung überhaupt gebraucht wird (Pathtracing).
Ich hab nie behauptet, dass es nicht auch mal 30 % und mehr sein  können. Aber oft (Pathtracing bieten halt auch nur sehr wenige Spiele) ist es einfach deutlich weniger. Klar, da hat man mit einer 4090 dann meist auch schon genug Leistung, aber trotzdem würde ich persönlich nur dann ein so teures Upgrade machen, wenn mir das wirklich in jeder Lebenslage eine richtig deutlichen Bonus bringt.
Das darf, kann und muss jeder handhaben wie er will. Ich persönlich strebe aber zum Beispiel immer mindestens 100 % Mehrleistung an. Das sorgt für einen ordentlichen Aha-Effekt und lässt mich vergessen, wieviel Geld ich dafür ausgegeben habe. :D
 
  • Gefällt mir
Reaktionen: Firefly2023 und MoinWoll
@wrglsgrft: Völlig richtig, ich denke für die allermeisten macht ein Upgrade von der 4090 auf die 5090 wenig Sinn, außer man muss nur ein paar wenige hundert Euro für den Wechsel ausgeben und hat evtl. noch Verwendung für den größeren Speicher. Aber spürbar ist es definitiv, wenn beide Karten voll ausgelastet werden (z. B. ~60 statt ~45 FPS bei Pathtracing in 4K mit DLSS Quality).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: wrglsgrft
Zurück
Oben