SONicX schrieb:
(...)
wie sehr der Stromhunger von Generation zu Generation bei CPU und GPU steigt.
..da is ja sicher ein trend abzusehn.
Graka wirds vermutlich immer bei einer bleibn.
..Die ganze frage stellt sich eigentl auch nur, weil ich hier viele seh die nen 600-700+ NT im Sys ham. ^^ ..da kam mir 580 iwie so unterdimensiniert vor.
Wie puri direkt über mir schon geschrieben hat, tendenziell geht die Entwicklung hin zu stromsparenden Komponenten. Die meisten CPUs sind inzwischen wieder unterhalb der 100 W Grenze angesiedelt, und ich denke mal mit 125 bzw. 140 W bei manchen Phenoms war die Obergrenze erreicht (u.a. die Grenze dessen, was man mit Luft noch halbwegs vernünftig weggekühlt bekommt). Bei den Grafikkarten siehts ähnlich aus, arg viel mehr als 200 W ziehen nur Dual-GPU-Varianten, ansonsten siedeln sich selbst die schnellsten Single-GPU-Karten ungefähr bei 200 W an, und auch das wird in Zukunft wohl so bleiben oder sogar wieder zurückgehen. Irgendwann ist auch einfach das Limit dessen erreicht, was man noch wegkühlen kann. Da die Strukturbreite immer kleiner wird, entsteht sowieso schon mehr Abwärme pro Fläche, die immer schlechter von den Chips wegzukriegen ist. Als Verbrauch für jeden High-End-Gamer-Rechner mit einer (Single-GPU-) Grafikkarte kann man sowas wie 100 W CPU und 200 W Grafikkarte veranschlagen, dann nochmal paar Watt für die restlichen Komponenten und 100 W als Sicherheit obendrauf, und du landest bei 400-500 W, die ein PC (auch in Zukunft) maximal verbrauchen wird (und selbst das ist noch ne üble Überschätzung, bsp. mein Rechner aus der Sig zieht schlimmstenfalls 300-350 W, und das auch nur wenn ich die CPU mit Prime und die GPU gleichzeitig mit Furmark quäle, bei Spielen sinds 50-100 W weniger, einfach weil die CPU nicht am Anschlag ist und die Graka je nach dem auch nicht ihr absolutes maximum zieht).
Dass sich manche Leute so derbe große Netzteile in den Rechner packen hat unterschiedliche Gründe. Manche planen sicher damit, in naher Zukunft noch ne zweite Grafikkarte dazuzupacken, oder ihre CPU/GPU derbe zu übertakten, was dann je nach dem nochmal 100 W mehr zieht. Bei anderen is es wahrscheinlich einfach "hauptsache da steht ne große Zahl!", oder sie haben absolut kein Gefühl dafür wieviel ihr Rechner tatsächlich verbraucht*. Mit der Prognose mag ich falsch liegen, aber 400-500 W Netzteil reicht meiner Meinung nach auf absehbare Zeit locker aus, wenn man sich die Entwicklung der letzten Jahre so anschaut. Mehr Rechenleistung mit der Brechstrange und doppelten Verbrauch kommt inzwischen nicht mehr so gut an, wenn auch nicht wegen der Stromrechnung, dann allein schon wegen der dafür notwendigen Kühlung.
*zugegeben, ich hab meinen Rechner an einer unterbrechungsfreien Stromversorgung hängen die mir anzeigt wieviel gerade verbraucht wird. Wenn man da immer wieder draufschaut bekommt man ein ganz gutes Gefühl für welche Komponente wieviel Verbrauch verursacht und wie so der typische Verbrauch abhängig vom Belastungsszenario aussieht. Aber als grobe Orientierung kann man auch einfach Max-TDP-Klasse = Leistungsaufnahme nehmen, und das für die relevanten Komponenten (CPU und GPU) addieren, dann bekommt man schon eine ganz gute Schätzung für den maximalen Verbrauch.