News Sonntagsfrage: Wohin geht die Reise beim Stromverbrauch?

Linmoum schrieb:
Der absolute Verbrauch ist in meinen Augen wenig relevant, sondern einzig die Effizienz.

GPU A mit 100% Leistung bei 300W (z.B. 6900XT) vs. GPU B mit 250% Leistung bei 450W (z.B. spekuliertes RDNA3). Da hadere ich sicherlich nicht damit, dass der absolute Verbrauch um 50% gestiegen ist, sondern finde es erfreulich, dass gleichzeitig die Performance mehr als doppelt so hoch ist - und einhergehend damit ein massiver Effizienzsprung.

Davon ab muss man ja auch nicht den Verbrauch von irgendwelchen Spitzenmodellen als Grundlage nehmen. Die 3070 ist - trotz 3080 und 3090 - ~50W sparsamer als eine vorherige 2080Ti bei identischer Performance.
Ich sehe da persönlich auch keine Probleme, da beide GPU-Hersteller mitlerweile entsprechende Einstellungen im Treiber anbieten, damit die Leistungsaufnahme beschränkt werden kann. Wenn man das mit einbezieht, so sind die neueren Generationen bei gleicher Leistung meist noch effizienter.
 
  • Gefällt mir
Reaktionen: Hovac
CptBabossa schrieb:
keine Ahnung wo man noch 25 Cent pro kW/h bezahlt. Geht mal auf die jeweiligen Stromanbieter. Da werden jetzt 65 Cent verlangt.
Das meinst du jetzt aber nicht im Ernst oder? Aktuell bezahle ich ca 28Cent/KWh.

Heute morgen gelesen: Finanzminister Lindner will die EEG-Umlage 2023 abschaffen. Da glaube ich nie dran. Und selbst wenn es käme. Irgend was neues fällt denen dann doch wieder ein.
 
Zum Glück gilt das nur für Tripple A Titel mit sehr guter Grafik.

Spielt man ältere oder anspruchslose Titel, dann zeigt die aktuelle Generation auch ihre Effiziens.

Nicht selten zeigt meine 6900 XT in Spielen 40-80W. Wenn ich dann Witcher 3 in 4K spiele sieht's natürlich anders aus.

Trotzdem ist es mMn so, dass moderne Hardware extrem Leistung ziehen KANN, dies aber selten macht.
 
  • Gefällt mir
Reaktionen: Plobori und Tsu
mvidia schrieb:
Wenn man das mit einbezieht, so sind die neueren Generationen bei gleicher Leistung meist noch effizienter.
Stimmt ja irgendwie aber am Ende bezahle ich halt den Strom, der durch meine Steckdose gewandert ist. Egal wie effizient die Karte ist. Und wenn ich mir eine schnelle Karte kaufe, will ich sie auch nicht künstlich kastrieren.
 
deswegen bleib ich bei WQHD 60Hz. Alles schön effizient und leise und meine 3070 wird hoffentlich laaaaaange reichen. :)
 
Ich hab ein 500 Watt Netzgerät komplett Passive mit Platin Status. Bis 600 Watt Gold. Hat schon über 10 Jahre auf den Buckel und auf Volllast heizen mein 3900K und meine 5700xt das Zimmer schon gut Warm.
Irgendwann ist des doch Absurd. 600 Watt ist mein Limit. Komme was wolle.

PS: Die Leistungsdaten von nem Netzgerät mit Drehstromanschluss würden mich schon interessieren. :D
 
Der Verbrauch wird weiter steigen... aber ned bei mir, weil solche absurden "Stromfresser" wie 500W-GPUs und 400W-CPUs werd ich sicher ned kaufen.
Meine PCs der letzen 11 Jahre haben alle in etwa den selben Verbrauch gehabt - lediglich der Jetzige braucht unter Last etwa 2-3% mehr, ist dafür aber im Idle sparsamer...
Das System zieht unter Volllast ~260W... DAS REICHT! :p
Die Strompreise werden ja auch immer "besser" - für 2022 hat mir mein Lieferant eine Erhöhung um 50%(!) aufgeschnalzt! SCHWEINE! :p
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Tsu und KitKat::new()
dasbene schrieb:
wäre es nicht mal interessant derartige Messungen als Community zu sammeln und eine Übersicht von tatsächlichen Verbrauchswerten zu bekommen?
SV3N schrieb:
Ein entsprechender Sammelthread im Forum könnte durchaus interessant sein.
Eigentlich habe ich so einen Strommesser noch rumliegen. Warum eigentlich nicht. Nur wie Aussagekräftig wäre das. Gibt ja praktisch keine zwei identischen Systeme und ein Rechner besteht ja nicht nur aus CPU und GPU.
 
NightSun schrieb:
man sollte sich mal die Frage stellen, was in Deutschland schief läuft.

PV Spitzenreiter (ist das sinnvoll bei unseren Sonnenstunden?) und Strompreise sehr hoch...Fazit: den Profit hat durch das EEG bisher nur eine bestimmte Gruppe (Eigenheim- und Grundbesitzer) gemacht. Kurioserweise kassieren die Gruppen mit dem höchsten Vermögen die Förderungen für PV, Wallbox und Elektro-Zweit-Drittauto.
_____

sehe das mit der Chip-Effizienz zweifelhaft: Vielleicht sind die Designs doch nicht so super. Man verspricht entweder weniger Verbrauch bei ähnlicher Leistung oder mehr Leistung. Doch man geht immer öfter den Weg von mehr Leistung bei höherem Verbrauch weil die meisten Gamer das auch fordern.
 
  • Gefällt mir
Reaktionen: kevyo und Tsu
Gufur schrieb:
Ja richtig, deswegen kann ich die Aussage von über 80ct/kwh nicht verstehen.
Wo gibts diese Preise denn?
In seinen Panikträumen.
foo_1337 schrieb:
Das ist regional abhängig. Ich habe hier mit 31ct beim Grundversorger auch Glück, aber in diversen e.on Regionen ist man z.B. bei 60ct.
Eon = 60Ct???
Wenn ich ja viel glaube, das aber nicht.
Wo soll das denn sein? Auf irgendeiner Hallig vielleicht, aber sonst?
Da bau ich mir eine autarke First Class, High End Solaranlage und hab die nach spätestens 5 Jahren komplett raus, wenn ich das gegenrechne.
 
  • Gefällt mir
Reaktionen: _Snaker_
Stromverbrauch ist mir eigentlich egal, zahle ja eh dafür, viel nerviger ist die dadurch im Raum entstehende Wärme. Deswegen läuft mein Rechner seit Jahren mit UV Setting.
 
  • Gefällt mir
Reaktionen: scryed, Zubz3ro, 122messi122 und eine weitere Person
Die Frage nach dem Stromverbrauch erscheint mir immer wie die "Gretchenfrage" oder um Faust zu adaptieren: Die gewünschte Leistung, ist des Pudels Kern.

1KW zu verballern, wird 2025 kein Problem sein. Dann hat man aber auch richtig viel Rechenleistung in Desktops. Ob man die braucht, muss jeder selber wissen.

Im Notebook Segment, werden wir wohl weiterhin bei unter 200 Watt für "Gaming Notebooks" verweilen und trotzdem wird es Bomber mit "neuen" Kühlsystemen geben, die auch 300 Watt rausblasen können.

Dann hat man trotzdem von Generation zu Generation höhere Leistung, der Abstand zu den Desktop Geräten, wird aber in Form von Leistungsaufnahme und Geschwindigkeit größer werden.

5nm hilft, 3 oder gar 2nm werden noch besser. Die Vorteile der Fertigung dann aber komplett in Leistung umzusetzen und jedem User mit dickem Geldbeutel, diese in Form von Geschwindigkeit und Verbrauch weiter zu leiten, wird dennoch existieren.

So ein 100 TFlop Monster wird (ich denke noch dieses Jahr) neue Dimensionen im Verbrauch setzen. Aber auch bei der Leistung und den Anschaffungs-/ Unterhaltungskosten.

Ein Ferrari, kostet auch nicht nur Geld bei der Anschaffung. Wenn man den noch oft fährt, kostet der richtig viel Geld, für den laufenden Betrieb. Ich sage nur: Bremsbeläge und Scheiben für 25k Euro (4 + 4 Stück incl. Einbau und Steuern) und Reifen für 1k Euro pro Stück :D

Am Ende, hängt es an den Softwareheinis und den Käufern. Wer 8K mit 144 FPS im Jahr 2025 haben will, wird die Stromkosten eher als "nebensächlich" bezeichnen.

mfg

p.s.

DriveByFM schrieb:
viel nerviger ist die dadurch im Raum entstehende Wärme

Guter Punkt. Im "Zockerzimmer" stehen Rechner mit Gesamtabwärme von etwa 2KW. Da muss man im Winter, bei abgeschalteter Heizung, auch mal das Fenster öffnen, sonst wird es mit den Menschen (die geben auch Wärme ab) einfach zu warm.

Ich habe aber auch schon Kronleuchter, mit 24 x100 Watt Glühbirnen gesehen. Die sind nicht nur Hell. :evillol:
 
  • Gefällt mir
Reaktionen: Nellsoon, jemandanders und AlphaKaninchen
Summerbreeze schrieb:
In seinen Panikträumen.

Eon = 60Ct???
Wenn ich ja viel glaube, das aber nicht.
Wo soll das denn sein? Auf irgendeiner Hallig vielleicht, aber sonst?
Da bau ich mir eine autarke First Class, High End Solaranlage und hab die nach spätestens 5 Jahren komplett raus, wenn ich das gegenrechne.
Hier in meiner Zweitwohnung verlangt der Grundversorger (Stadtwerke Jena) 0,7135€/kWh, Alternativ-Angebot 0,51€/kWh, einer Aussage mit "Panikträumen" entgegenzutreten würde ich daher tunlichst lassen...
 
  • Gefällt mir
Reaktionen: Dönerkatze, Justiin, Tsu und 2 andere
Ich habe mal optimistisch für "pendelt sich ein". Würde mir aber wieder weniger Stromverbrauch wünschen. Da mir aktuell sowas wie eine GT 1030 reicht, hoffe ich, dass es hier weiterhin solche GPUs geben wird. T400 und P400 sind ja ähnlich hungrig und haben mehr Leistung als meine GT 1030.
 
Ich glaube nicht, dass der Stromverbrauch weiter steigen wird oder kann, jedenfalls nicht bei fortschreitender Strukturverkleinerung. Je kleiner die Fläche, auf der die Abwärme generiert wird, desto schwerer zu kühlen und desto heißer wird es. Da heizt sich der Chip schneller auf als es selbst mit den besten wärmeleitenden Materialien möglich ist, die Wärme über den Heatspreader zu verteilen und abzuführen. Bei Alder Lake sind bis zu 241W von dessen winzigen Chip ausgehend schon grenzwertig. Es geht dann physikalisch einfach nicht mehr irgendwann. Bei z.B. 400-500W könnte der draufgeschraubte Kühler beliebig gut sein, es wäre dennoch nicht mehr möglich die ansteigende Temperatur in Schach zu halten.

Der einzige Weg hin zu noch mehr Stromverbrauch als heute wäre, dass man die wärmeabgebenden Komponenten auf mehrere Teile als bisher verteilt. 500W CPU also z.B. über zwei CPUs realisiert, oder eine zweite und dritte Grafikkarte reinsteckt. Sonst halte ich das für ziemlich ausgeschlossen.
 
  • Gefällt mir
Reaktionen: Mad-Ric
panik schrieb:
Die sind an den Grundversorger gefallen. Dann kann dir kw/h mal eben schnell mehr als 85cent kosten.
Das ist nicht wirklich passiert, die Leute können sofort einen anderen Versorger wählen... Nur wer wirklich extrem dumm ist zahlt 85 Cent ...
 
  • Gefällt mir
Reaktionen: paccoderpster
Die Diagrammbeschriftung suggeriert das Falsche. Hier steht "Maximale FPS:"
Hier sollte eher "Maximaler (oder Durchschnitts-) Verbrauch" stehen.

Ansonsten finde ich die enorme Verbrauchsentwicklung auch bedenklich. Nachhaltig ist was anderes.

Aber leider wollen alle Hersteller nur den Weg nach oben in der Leistung und finden diesen unter anderem nur mit der Erhöhung des Verbrauch.
Dieser sollte gedeckelt werden.
 
  • Gefällt mir
Reaktionen: Tsu
Wird ein Jojo Effekt sein.

Jetzt decken sich alle mit starken Netzteilen ein um ihre Midrange Karten am laufen zu halten. Und in ein paar Jahren werden 450-550 watt ausreichend sein.

Aso wir haben Nierssstrom was nebenbei 100% Öko ist. Für einen lokalen Anbieter und das mit 28ct ist noch OK.

Vatter hatte letztes Jahr 520kw nötig ist das viel? :)
 
Zurück
Oben