Ich sehe da persönlich auch keine Probleme, da beide GPU-Hersteller mitlerweile entsprechende Einstellungen im Treiber anbieten, damit die Leistungsaufnahme beschränkt werden kann. Wenn man das mit einbezieht, so sind die neueren Generationen bei gleicher Leistung meist noch effizienter.Linmoum schrieb:Der absolute Verbrauch ist in meinen Augen wenig relevant, sondern einzig die Effizienz.
GPU A mit 100% Leistung bei 300W (z.B. 6900XT) vs. GPU B mit 250% Leistung bei 450W (z.B. spekuliertes RDNA3). Da hadere ich sicherlich nicht damit, dass der absolute Verbrauch um 50% gestiegen ist, sondern finde es erfreulich, dass gleichzeitig die Performance mehr als doppelt so hoch ist - und einhergehend damit ein massiver Effizienzsprung.
Davon ab muss man ja auch nicht den Verbrauch von irgendwelchen Spitzenmodellen als Grundlage nehmen. Die 3070 ist - trotz 3080 und 3090 - ~50W sparsamer als eine vorherige 2080Ti bei identischer Performance.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Sonntagsfrage: Wohin geht die Reise beim Stromverbrauch?
- Ersteller SVΞN
- Erstellt am
- Zur News: Sonntagsfrage: Wohin geht die Reise beim Stromverbrauch?
PusteBlume0815
Lt. Commander
- Registriert
- Sep. 2020
- Beiträge
- 1.431
Das meinst du jetzt aber nicht im Ernst oder? Aktuell bezahle ich ca 28Cent/KWh.CptBabossa schrieb:keine Ahnung wo man noch 25 Cent pro kW/h bezahlt. Geht mal auf die jeweiligen Stromanbieter. Da werden jetzt 65 Cent verlangt.
Heute morgen gelesen: Finanzminister Lindner will die EEG-Umlage 2023 abschaffen. Da glaube ich nie dran. Und selbst wenn es käme. Irgend was neues fällt denen dann doch wieder ein.
Zum Glück gilt das nur für Tripple A Titel mit sehr guter Grafik.
Spielt man ältere oder anspruchslose Titel, dann zeigt die aktuelle Generation auch ihre Effiziens.
Nicht selten zeigt meine 6900 XT in Spielen 40-80W. Wenn ich dann Witcher 3 in 4K spiele sieht's natürlich anders aus.
Trotzdem ist es mMn so, dass moderne Hardware extrem Leistung ziehen KANN, dies aber selten macht.
Spielt man ältere oder anspruchslose Titel, dann zeigt die aktuelle Generation auch ihre Effiziens.
Nicht selten zeigt meine 6900 XT in Spielen 40-80W. Wenn ich dann Witcher 3 in 4K spiele sieht's natürlich anders aus.
Trotzdem ist es mMn so, dass moderne Hardware extrem Leistung ziehen KANN, dies aber selten macht.
PusteBlume0815
Lt. Commander
- Registriert
- Sep. 2020
- Beiträge
- 1.431
Stimmt ja irgendwie aber am Ende bezahle ich halt den Strom, der durch meine Steckdose gewandert ist. Egal wie effizient die Karte ist. Und wenn ich mir eine schnelle Karte kaufe, will ich sie auch nicht künstlich kastrieren.mvidia schrieb:Wenn man das mit einbezieht, so sind die neueren Generationen bei gleicher Leistung meist noch effizienter.
DragonScience
Lieutenant
- Registriert
- Mai 2013
- Beiträge
- 709
Ich hab ein 500 Watt Netzgerät komplett Passive mit Platin Status. Bis 600 Watt Gold. Hat schon über 10 Jahre auf den Buckel und auf Volllast heizen mein 3900K und meine 5700xt das Zimmer schon gut Warm.
Irgendwann ist des doch Absurd. 600 Watt ist mein Limit. Komme was wolle.
PS: Die Leistungsdaten von nem Netzgerät mit Drehstromanschluss würden mich schon interessieren.
Irgendwann ist des doch Absurd. 600 Watt ist mein Limit. Komme was wolle.
PS: Die Leistungsdaten von nem Netzgerät mit Drehstromanschluss würden mich schon interessieren.
Der Verbrauch wird weiter steigen... aber ned bei mir, weil solche absurden "Stromfresser" wie 500W-GPUs und 400W-CPUs werd ich sicher ned kaufen.
Meine PCs der letzen 11 Jahre haben alle in etwa den selben Verbrauch gehabt - lediglich der Jetzige braucht unter Last etwa 2-3% mehr, ist dafür aber im Idle sparsamer...
Das System zieht unter Volllast ~260W... DAS REICHT!
Die Strompreise werden ja auch immer "besser" - für 2022 hat mir mein Lieferant eine Erhöhung um 50%(!) aufgeschnalzt! SCHWEINE!
Meine PCs der letzen 11 Jahre haben alle in etwa den selben Verbrauch gehabt - lediglich der Jetzige braucht unter Last etwa 2-3% mehr, ist dafür aber im Idle sparsamer...
Das System zieht unter Volllast ~260W... DAS REICHT!
Die Strompreise werden ja auch immer "besser" - für 2022 hat mir mein Lieferant eine Erhöhung um 50%(!) aufgeschnalzt! SCHWEINE!
Zuletzt bearbeitet:
Also bei Igor schneidet ein 12900K deutlich besser ab, vor allem wenn man die "Average Watts by Frame Per Second" vergleicht. Absolute Zahlen verzerren hier das Bild.
https://www.igorslab.de/intel-core-...in-ganz-schnell-und-richtig-sparsam-teil-1/9/
https://www.igorslab.de/intel-core-...in-ganz-schnell-und-richtig-sparsam-teil-1/9/
PusteBlume0815
Lt. Commander
- Registriert
- Sep. 2020
- Beiträge
- 1.431
dasbene schrieb:wäre es nicht mal interessant derartige Messungen als Community zu sammeln und eine Übersicht von tatsächlichen Verbrauchswerten zu bekommen?
Eigentlich habe ich so einen Strommesser noch rumliegen. Warum eigentlich nicht. Nur wie Aussagekräftig wäre das. Gibt ja praktisch keine zwei identischen Systeme und ein Rechner besteht ja nicht nur aus CPU und GPU.SV3N schrieb:Ein entsprechender Sammelthread im Forum könnte durchaus interessant sein.
man sollte sich mal die Frage stellen, was in Deutschland schief läuft.NightSun schrieb:Eigentlich nicht, weil überall der Strom günstiger ist.
für Europa:
https://de.statista.com/statistik/d...tspreise-ausgewaehlter-europaeischer-laender/
https://m.faz.net/aktuell/finanzen/...global-auf-dem-ersten-platz-17624050.amp.html
PV Spitzenreiter (ist das sinnvoll bei unseren Sonnenstunden?) und Strompreise sehr hoch...Fazit: den Profit hat durch das EEG bisher nur eine bestimmte Gruppe (Eigenheim- und Grundbesitzer) gemacht. Kurioserweise kassieren die Gruppen mit dem höchsten Vermögen die Förderungen für PV, Wallbox und Elektro-Zweit-Drittauto.
_____
sehe das mit der Chip-Effizienz zweifelhaft: Vielleicht sind die Designs doch nicht so super. Man verspricht entweder weniger Verbrauch bei ähnlicher Leistung oder mehr Leistung. Doch man geht immer öfter den Weg von mehr Leistung bei höherem Verbrauch weil die meisten Gamer das auch fordern.
jemandanders
Commander
- Registriert
- Mai 2019
- Beiträge
- 2.978
In seinen Panikträumen.Gufur schrieb:Ja richtig, deswegen kann ich die Aussage von über 80ct/kwh nicht verstehen.
Wo gibts diese Preise denn?
Eon = 60Ct???foo_1337 schrieb:Das ist regional abhängig. Ich habe hier mit 31ct beim Grundversorger auch Glück, aber in diversen e.on Regionen ist man z.B. bei 60ct.
Wenn ich ja viel glaube, das aber nicht.
Wo soll das denn sein? Auf irgendeiner Hallig vielleicht, aber sonst?
Da bau ich mir eine autarke First Class, High End Solaranlage und hab die nach spätestens 5 Jahren komplett raus, wenn ich das gegenrechne.
[wege]mini
Banned
- Registriert
- Juli 2018
- Beiträge
- 8.357
Die Frage nach dem Stromverbrauch erscheint mir immer wie die "Gretchenfrage" oder um Faust zu adaptieren: Die gewünschte Leistung, ist des Pudels Kern.
1KW zu verballern, wird 2025 kein Problem sein. Dann hat man aber auch richtig viel Rechenleistung in Desktops. Ob man die braucht, muss jeder selber wissen.
Im Notebook Segment, werden wir wohl weiterhin bei unter 200 Watt für "Gaming Notebooks" verweilen und trotzdem wird es Bomber mit "neuen" Kühlsystemen geben, die auch 300 Watt rausblasen können.
Dann hat man trotzdem von Generation zu Generation höhere Leistung, der Abstand zu den Desktop Geräten, wird aber in Form von Leistungsaufnahme und Geschwindigkeit größer werden.
5nm hilft, 3 oder gar 2nm werden noch besser. Die Vorteile der Fertigung dann aber komplett in Leistung umzusetzen und jedem User mit dickem Geldbeutel, diese in Form von Geschwindigkeit und Verbrauch weiter zu leiten, wird dennoch existieren.
So ein 100 TFlop Monster wird (ich denke noch dieses Jahr) neue Dimensionen im Verbrauch setzen. Aber auch bei der Leistung und den Anschaffungs-/ Unterhaltungskosten.
Ein Ferrari, kostet auch nicht nur Geld bei der Anschaffung. Wenn man den noch oft fährt, kostet der richtig viel Geld, für den laufenden Betrieb. Ich sage nur: Bremsbeläge und Scheiben für 25k Euro (4 + 4 Stück incl. Einbau und Steuern) und Reifen für 1k Euro pro Stück
Am Ende, hängt es an den Softwareheinis und den Käufern. Wer 8K mit 144 FPS im Jahr 2025 haben will, wird die Stromkosten eher als "nebensächlich" bezeichnen.
mfg
p.s.
Guter Punkt. Im "Zockerzimmer" stehen Rechner mit Gesamtabwärme von etwa 2KW. Da muss man im Winter, bei abgeschalteter Heizung, auch mal das Fenster öffnen, sonst wird es mit den Menschen (die geben auch Wärme ab) einfach zu warm.
Ich habe aber auch schon Kronleuchter, mit 24 x100 Watt Glühbirnen gesehen. Die sind nicht nur Hell.
1KW zu verballern, wird 2025 kein Problem sein. Dann hat man aber auch richtig viel Rechenleistung in Desktops. Ob man die braucht, muss jeder selber wissen.
Im Notebook Segment, werden wir wohl weiterhin bei unter 200 Watt für "Gaming Notebooks" verweilen und trotzdem wird es Bomber mit "neuen" Kühlsystemen geben, die auch 300 Watt rausblasen können.
Dann hat man trotzdem von Generation zu Generation höhere Leistung, der Abstand zu den Desktop Geräten, wird aber in Form von Leistungsaufnahme und Geschwindigkeit größer werden.
5nm hilft, 3 oder gar 2nm werden noch besser. Die Vorteile der Fertigung dann aber komplett in Leistung umzusetzen und jedem User mit dickem Geldbeutel, diese in Form von Geschwindigkeit und Verbrauch weiter zu leiten, wird dennoch existieren.
So ein 100 TFlop Monster wird (ich denke noch dieses Jahr) neue Dimensionen im Verbrauch setzen. Aber auch bei der Leistung und den Anschaffungs-/ Unterhaltungskosten.
Ein Ferrari, kostet auch nicht nur Geld bei der Anschaffung. Wenn man den noch oft fährt, kostet der richtig viel Geld, für den laufenden Betrieb. Ich sage nur: Bremsbeläge und Scheiben für 25k Euro (4 + 4 Stück incl. Einbau und Steuern) und Reifen für 1k Euro pro Stück
Am Ende, hängt es an den Softwareheinis und den Käufern. Wer 8K mit 144 FPS im Jahr 2025 haben will, wird die Stromkosten eher als "nebensächlich" bezeichnen.
mfg
p.s.
DriveByFM schrieb:viel nerviger ist die dadurch im Raum entstehende Wärme
Guter Punkt. Im "Zockerzimmer" stehen Rechner mit Gesamtabwärme von etwa 2KW. Da muss man im Winter, bei abgeschalteter Heizung, auch mal das Fenster öffnen, sonst wird es mit den Menschen (die geben auch Wärme ab) einfach zu warm.
Ich habe aber auch schon Kronleuchter, mit 24 x100 Watt Glühbirnen gesehen. Die sind nicht nur Hell.
Nacho_Man
Rear Admiral
- Registriert
- Mai 2008
- Beiträge
- 5.301
Hier in meiner Zweitwohnung verlangt der Grundversorger (Stadtwerke Jena) 0,7135€/kWh, Alternativ-Angebot 0,51€/kWh, einer Aussage mit "Panikträumen" entgegenzutreten würde ich daher tunlichst lassen...Summerbreeze schrieb:In seinen Panikträumen.
Eon = 60Ct???
Wenn ich ja viel glaube, das aber nicht.
Wo soll das denn sein? Auf irgendeiner Hallig vielleicht, aber sonst?
Da bau ich mir eine autarke First Class, High End Solaranlage und hab die nach spätestens 5 Jahren komplett raus, wenn ich das gegenrechne.
- Registriert
- Juni 2007
- Beiträge
- 7.307
Ich habe mal optimistisch für "pendelt sich ein". Würde mir aber wieder weniger Stromverbrauch wünschen. Da mir aktuell sowas wie eine GT 1030 reicht, hoffe ich, dass es hier weiterhin solche GPUs geben wird. T400 und P400 sind ja ähnlich hungrig und haben mehr Leistung als meine GT 1030.
Ich glaube nicht, dass der Stromverbrauch weiter steigen wird oder kann, jedenfalls nicht bei fortschreitender Strukturverkleinerung. Je kleiner die Fläche, auf der die Abwärme generiert wird, desto schwerer zu kühlen und desto heißer wird es. Da heizt sich der Chip schneller auf als es selbst mit den besten wärmeleitenden Materialien möglich ist, die Wärme über den Heatspreader zu verteilen und abzuführen. Bei Alder Lake sind bis zu 241W von dessen winzigen Chip ausgehend schon grenzwertig. Es geht dann physikalisch einfach nicht mehr irgendwann. Bei z.B. 400-500W könnte der draufgeschraubte Kühler beliebig gut sein, es wäre dennoch nicht mehr möglich die ansteigende Temperatur in Schach zu halten.
Der einzige Weg hin zu noch mehr Stromverbrauch als heute wäre, dass man die wärmeabgebenden Komponenten auf mehrere Teile als bisher verteilt. 500W CPU also z.B. über zwei CPUs realisiert, oder eine zweite und dritte Grafikkarte reinsteckt. Sonst halte ich das für ziemlich ausgeschlossen.
Der einzige Weg hin zu noch mehr Stromverbrauch als heute wäre, dass man die wärmeabgebenden Komponenten auf mehrere Teile als bisher verteilt. 500W CPU also z.B. über zwei CPUs realisiert, oder eine zweite und dritte Grafikkarte reinsteckt. Sonst halte ich das für ziemlich ausgeschlossen.
S
SpamBot
Gast
Das ist nicht wirklich passiert, die Leute können sofort einen anderen Versorger wählen... Nur wer wirklich extrem dumm ist zahlt 85 Cent ...panik schrieb:Die sind an den Grundversorger gefallen. Dann kann dir kw/h mal eben schnell mehr als 85cent kosten.
HeinMueck
Lt. Commander
- Registriert
- Apr. 2012
- Beiträge
- 1.937
Erster Satz des Fazits:incurable schrieb:Eine Radeon HD 3870 war zu keinem Zeitpunkt ihres Produktlebens high-end:
https://www.computerbase.de/artikel/grafikkarten/ati-radeon-hd-3870-rv670-test.720/
"Nachdem es uns anno dazumal unmöglich erschien, eine Kaufempfehlung für die Radeon HD 2900 XT auszusprechen, kommen wir von dieser Haltung gegenüber ATis High-End-Produkten bei der Radeon HD 3870 wieder ab."
danyundsahne
Commodore
- Registriert
- Okt. 2007
- Beiträge
- 4.918
Die Diagrammbeschriftung suggeriert das Falsche. Hier steht "Maximale FPS:"
Hier sollte eher "Maximaler (oder Durchschnitts-) Verbrauch" stehen.
Ansonsten finde ich die enorme Verbrauchsentwicklung auch bedenklich. Nachhaltig ist was anderes.
Aber leider wollen alle Hersteller nur den Weg nach oben in der Leistung und finden diesen unter anderem nur mit der Erhöhung des Verbrauch.
Dieser sollte gedeckelt werden.
Hier sollte eher "Maximaler (oder Durchschnitts-) Verbrauch" stehen.
Ansonsten finde ich die enorme Verbrauchsentwicklung auch bedenklich. Nachhaltig ist was anderes.
Aber leider wollen alle Hersteller nur den Weg nach oben in der Leistung und finden diesen unter anderem nur mit der Erhöhung des Verbrauch.
Dieser sollte gedeckelt werden.
Geforce2front
Lt. Junior Grade
- Registriert
- Apr. 2015
- Beiträge
- 440
Wird ein Jojo Effekt sein.
Jetzt decken sich alle mit starken Netzteilen ein um ihre Midrange Karten am laufen zu halten. Und in ein paar Jahren werden 450-550 watt ausreichend sein.
Aso wir haben Nierssstrom was nebenbei 100% Öko ist. Für einen lokalen Anbieter und das mit 28ct ist noch OK.
Vatter hatte letztes Jahr 520kw nötig ist das viel?
Jetzt decken sich alle mit starken Netzteilen ein um ihre Midrange Karten am laufen zu halten. Und in ein paar Jahren werden 450-550 watt ausreichend sein.
Aso wir haben Nierssstrom was nebenbei 100% Öko ist. Für einen lokalen Anbieter und das mit 28ct ist noch OK.
Vatter hatte letztes Jahr 520kw nötig ist das viel?
Ähnliche Themen
- Artikel
- Antworten
- 34
- Aufrufe
- 1.432
- Antworten
- 5
- Aufrufe
- 1.003
Synology Q&A 2021
Was macht Synology anders/besser als Mitbewerber? Wohin geht die Reise ?
- Antworten
- 1
- Aufrufe
- 1.735
- Antworten
- 29
- Aufrufe
- 3.414