News GeForce RTX 3090 Ti Suprim X: MSI nennt 480 Watt TDP und empfiehlt 1.000-Watt-Netzteil

so ein absoluter Quatsch 1000watt

ich habe ein Enermax 850 watt Gold Netzteil und betreibe eine 3090 (Maximales OC und 470watt Powerlimit) und einen 12900k auch Maximales OC auf 5,1 allcore und habe Null probleme

und wenn man ehrlich ist in spielen als Bsp God of War hat meine 3090 konstant 420-460watt verbrauch und der cpu knapp 80-100watt das macht in Summe 560watt sprich man hat hier noch extrem viel reserve und ein 1000watt Absolut unnötig
 
  • Gefällt mir
Reaktionen: Bulletchief und laxus222
Immer diese Angstmacherrei man brauch 1000watt und die Leute glauben es dann auch und Kaufen das auch noch
 
  • Gefällt mir
Reaktionen: Newbie_9000
Mastermind85 schrieb:
Es geht um die Gesamtentwicklung in diesem Bereich. Egal ob CPUs oder GPUs.

Leistungngsstärkere Netzteile, größere, Gehäuse, größere Kühler.

Das ist doch eine Entwicklung, die niemand gutheißen kann.

Ja, Potente hardware benötigt nunmal Strom, klar.

Mehrleistung bei zumindest gleichbleibendem Verbrauch wäre mal wieder schön.


Gibt es, auch mit den neuesten Generationen.

Ein 12400f, nebst einer 3060 befeuert alles auf FHD was du dir wünschst.
Ein 7700k mit einer Vega64 dagegen nicht ansatzweise mit derselben Leistung oder Leistungsaufnahme.

So what?

Vergleichst du gerade 4k Gaming mit FHD von vor 3 Jahren?
Wenn ja: Sieben mal mehr Pixel mit nicht einmal 100% mehr an Verlustleistung sind in meinen Augen schon ein gewaltiger Fortschritt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Newbie_9000 und laxus222
Ach Gott, bin ich beruhigt dass das die Miner zumindest in Europa in Ruin treiben könnte und mich das auch nicht kratzt, bei den Verfügbarkeiten und Preisen.
 
  • Gefällt mir
Reaktionen: Drakrochma
Bitte löschen, hier stand was falsches
 
Zuletzt bearbeitet von einem Moderator:
Also AMD noch für gleiche Leistung mehr Watt brauchte, wurden die zerrissen dafür von allen Seiten. Jetzt bei nV, nimmt man es hin, werden paar Witze gemacht und gut. Sind die Leute nur noch abgestumpft oder Rosa Rote Brille? Wenn man das jetzt Toleriert wird nV in Zukunft darauf nicht mehr achten und AMD über kurz oder lang auch nicht mehr.
 
  • Gefällt mir
Reaktionen: Valeria und Kenshin_01
ich würde noch eine Empfehlung für ein 1000W Netzteil mit 80+ Gold oder Platin Zertifikat aussprechen, dann ist doch alles Öko.
 
Also irgendwann is auch mal jut. Das Ding kostet sicher ca. 3500 Euro Strasse....abgesehen vom Strom.
 
Bin schon gespannt, wann Papa dem Sohnemann einen eigenen Stromzähler im Kinderzimmer installiert, und den Verbrauch dann vom Taschengeld abzieht... "Du Oma, hast mal 50€? Möchte gerne mal wieder am PC zocken." :p
 
Immer höher weiter, schneller, ... wann besinnt man sich da auch mal "Effizienz" mit zu implementieren?

Leistung, aber Low Budget Powerbedarf, das würde ich mal hart feiern.
 
Benni1990 schrieb:
Immer diese Angstmacherrei man brauch 1000watt und die Leute glauben es dann auch und Kaufen das auch noch
Das ist keine "Angstmacherei", die Hersteller müssen in ihren Empfehlungen eben auch abdecken, dass einige Käufer keine High End Netzteile haben. Klingt bei einer 3090 komisch, ist aber immer wieder so.
Geld bekommt man einfacher als Ahnung.
Ergänzung ()

JaKno schrieb:
In letzter Zeit sieht man immer mehr Brechstange Hardware. Wie wäre es mal wieder mit Effizienzsteigerung?
Die findet man lustigerweise tendenziell eher bei AMD die letzten zwei Jahre.

Die 6900XT ist ja fast schon gemächlich im Vergleich zur Konkurrenz, und das trotz der AMD-typisch konservativ hohen Spannung pro Takt. Mit wenig Aufwand bekam ich meine 6900XT auf 105% Leistung bei nunmehr "nur" noch ~250W (statt den 280W+ ab Werk).

Mit Lovelace muss Nvidia das in den Griff kriegen.
Ergänzung ()

Benni1990 schrieb:
und wenn man ehrlich ist in spielen als Bsp God of War hat meine 3090 konstant 420-460watt verbrauch
Der konstante Verbrauch ist da auch weniger das Problem, sondern die kurzzeitigen Spitzen, die bei einer 3090 gern mal auf 600W+ gehen. Wenn das Netzteil solche Peaks nicht aushält, gehts halt einfach aus. Deswegen auch die NT Empfehlungen, da muss der Hersteller Netzteile einkalkulieren, die solche Peakströme nicht außerhalb der Nennleistung schaffen.
 
Zuletzt bearbeitet:
Bei Fermi wurde noch gescherzt "Thermi" . Mehr Leistung wird mit der Brechstange erzeugt. Selbst wenn die Karte lieferbar wäre, dürfte sich dieses Leistungswunder nur an die gutbetuchten anbieten. Nur wozu?
 
canada schrieb:
Also AMD noch für gleiche Leistung mehr Watt brauchte, wurden die zerrissen dafür von allen Seiten. Jetzt bei nV, nimmt man es hin, werden paar Witze gemacht und gut. Sind die Leute nur noch abgestumpft oder Rosa Rote Brille? Wenn man das jetzt Toleriert wird nV in Zukunft darauf nicht mehr achten und AMD über kurz oder lang auch nicht mehr.
Grüne Brille, grün! ;)
 
IdefixWindhund schrieb:
Leistung, aber Low Budget Powerbedarf, das würde ich mal hart feiern.

Notebook-GPUs? Ansonsten kannst du auch z.B. eine RTX 3060 Ti oder RX6700 nehmen und diese undervolten, kostet kaum Leistung und du sparst Strom.

Und durch die folgenden Prozesse (TSMC 7nm -> TSMC 5nm, bzw. Samsung 8nm -> TSMC 5nm) werden die GPUs noch effizienter.

@kaiwo78
Wo ist denn das Problem? Die reine Existenz eines Produkts ist doch kein Nachteil, nur weil es sich nicht jeder leisten kann/will.

Und auch in der nächsten Generation wird niemand gezwungen 500+ Watt GPUs zu kaufen, bei vielen scheint das psychologisch zu sein, nach dem Motto "Ich hatte immer eine xx80er GPU, nun soll ICH downgraden???".
Wenn eine RTX 4060 schneller als meine 3080 ist und dazu weniger verbraucht, dann habe ich kein Problem umzusteigen.

Ich denke die vielen Refreshes und Modelle sind auch auf die Chipkrise zurückzuführen.

@Benni1990
Bei den Netzteilempfehlungen geht es auch eher um die Lastspitzen und Netzteile ohne Zertifizierung.
Und ein größeres Netzteil schadet ja auch nicht, die Effizienz ist im "sweet spot" zwar etwas besser, aber bei guten Netzteilen kann man das schon fast ignorieren.

@canada
Ja, AMD ist diese Generation effizienter und im Forum wurden sie dafür auch immer gelobt, allerdings tippe ich persönlich auch darauf, dass Samsung 8nm etwas schlechter in Sachen Powereffizienz ist als TSMC 7nm.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Cohen und IdefixWindhund
Da gehört dann meine 2080 zur Umweltfraktion und wurde persönlich von den Grünen mit einem Bio-Siegel versehen. 🥰

Ich denke mir auch die Richtung ist schon bedenklich, nur jeder kann oder zumindest sollte Regler bedienen können. Ich habe meine 2080 auch im UV und so würde ich es auch mit jeder kommenden Generation machen. Es hat sich bewährt und schont die Hardware, weil ich muss gestehen ich kann am WE bei miesen Wetter schonmal 10 Stunden + am Tag zocken wenn ich Lust habe.

Ich finde aber halt alles an de Richtung bedenklich. Weil alles geht durch die Decke, die letzten 6 Monate konnte man locker jeden Tag zusehen wie die Preise nur eine Richtung kennen. Ich verdiene nicht schlecht und habe sicher einen guten Finanziellen Spielraum aber das Hobby PC wird zusehends eher zweitrangig.
 
Naja solche Karten sind eh nur was für die 1 Prozent. (Nerds, werbestreamer, Profis)
Was die bezahlbaren (der war gut) Karten für die Masse verbrauchen ist ja viel entscheidender.
 
Die Entwicklung geht aber irgendwie in die falsche Richtung! Gut, das ist eine High-End-Karte, aber trotzdem!? Überall wird vom Umweltschutz und (Strom-)sparen gesprochen und hier wird offensichtlich die Mehrleistung über Mehrverbrauch erzielt :freak:

Nvidia...
giphy.gif
 
@Powl_0 Ja da gebe ich dir recht mit den Lastspitzen aber welbst die GPU mal kurzeitig 600watt hat und der CPU 100watt ist man mit einem "GUTEN" gold netzteil immer noch Dicke save und den Genannten 850watt

Ich meine Klar man kann nie Genug Watt haben bei Netzteilen aber das Die Hersteller immer gleich 1000Watt in den Raumwerfen kann ich halt null verstehen wenn doch ein "GUTES" 850 watt Dicke auslangt
 
6kbyte schrieb:
Der Verbrauch und die Kosten finde ich eher zweitrangig (man kauft sich auch keinen Ferrari und meckert dann über die Benzinpreise oder wie viel er schluckt), aber die Abwärme ist, besonders im Sommer, einfach nur abnormal. Sowas kann man dann wirklich nur noch machen wenn man ne Klima zuhause hat, ansonsten geht man kaputt.
Das kommt drauf an, wenn man jetzt im Kölner Raum Strom neu anmeldet dann zahlt man satte 45,6 cent pro KW/h., das ist mittlerweile nicht mehr ohne.
 
Zurück
Oben