News Sonntagsfrage: Wohin geht die Reise beim Stromverbrauch?

Die Effizienz im Office- und Lowend-Bereich ist gestiegen, so daß ein 300W-PC heute deutlich mehr kann als vor 15 Jahren. Sehe ich am aufgerüsteten PC meines Sohnes: Im letzten Januar hatten wir primär aus Home-Schooling-Gründen einen zehn Jahre alten Core2Quad (95 W) mit ner HD 5770 (108 W) flott gemacht. Jetzt werkelt eine Ryzen 5600G-APU da drin - max. 65 W: Vorher ruckelte Star Wars The Old Republic schon im Minimum ab und zu spürbar - jetzt kann er ein gutes Stück aufdrehen, und es läuft alles super flüssig. Mit max. 65 Watt statt vorher max. 95+108 ...

Man sollte einfach aufpassen, daß man bei solchen Fragen nicht Äpfel mit Birnen vergleicht:
Der Stromverbrauch im Highend-Bereich wird zwangsläufig immer weiter ansteigen, von nix kommt nix.
Die Frage ist nur, ob die Effizienz zunimmt und damit der Leistungszuwachs relativ zum Stromhunger (deutlich) besser wird. Und ob damit im Laufe der Zeit vor allem der Stromverbrauch im Office- und Mainstream-Segment sinken kann oder zumindest bei gleichem Verbrauch mehr liefert.
 
  • Gefällt mir
Reaktionen: PS828
tox1c90 schrieb:
je kleiner die Fläche, auf der die Abwärme generiert wird, desto schwerer zu kühlen und desto heißer wird es.

Daher baut man in McM.

4 x 200 Watt auf jeweils 250mm² (das geht locker) sind schon 800 Watt. The Sky is the limit.

mfg
 
  • Gefällt mir
Reaktionen: Mad-Ric
Hauptsache es gibt nach wie vor noch effiziente Komponenten wie z.B. im CPU-Bereich den R7 3700X/R5 5600X, der Intel 12400 kommt auch schon mit immensen Vorschusslorbeeren diesbezüglich und dürfte in Hinblick auf die Effizienz AMD wieder ablösen. Bei den Grakas steht z.B. die AMD 6800 / NVDIA 3070 FE ganz oben.

Ich auf jeden Fall werde diese Wattschlachten nicht mitspielen, gibt es halt keine „Extreme Settings“.
 
  • Gefällt mir
Reaktionen: Innocience, Zwirbelkatz, fxn und eine weitere Person
incurable schrieb:
Ist die von Dir verlinkte Karte jemals auf den Markt gekommen?
Keine Ahnung ob dies es außerhalb China geschafft hat.
In Deutschland war die mWn nicht erhältlich.

Ändert nicht daran, dass jemand das Produkt entwickelt und verkauft hat.

HeinMueck schrieb:
Erster Satz des Fazits:
Ändert nichts daran, dass die HD 3870 schon beim Erscheinen kein Highend war.
In die Nähe der Performance-Spitze hatte es ATI erst mit der HD 4870 wieder geschafft.

Geforce2front schrieb:
Vatter hatte letztes Jahr 520kw nötig ist das viel?
Bei einem Bedarf von 520kW lohnt es sich schon fast, ein eigenes Kraftwerk zu bauen... da gibt's Rechenzentren, die weniger schlucken.

[wege]mini schrieb:
4 x 200 Watt auf jeweils 250mm² (das geht locker) sind schon 800 Watt. The Sky is the limit.
Die Zukunft liegt bei Wafer-Scale Chips mit jenseits von 20kW Leistung
 
  • Gefällt mir
Reaktionen: [wege]mini
Der Verbrauch beim Surfen oder Idle ist mir Wichtiger als bei Volllast.
 
  • Gefällt mir
Reaktionen: Kornilein, Tsu und kaji-kun
calippo schrieb:
Noch lange nicht, lass eine KWh 40 Cent kosten, dann kostet eine Stunde Gaming auf einem 1KW Rig 40 Cent.
Selbst bei 1000h Volllastdaddelei im Jahr sind das 400€ Stromkosten.
Für ein Hobby immer noch Peanuts.

Selbst wenn sich die Strompreise verdoppeln, also auf 800€ Stromkosten pro Jahr steigen, ist das für viele Leute für ein Hobby akzeptabel.

Und der PC und Spiele kosten alle nix für das Hobby Gaming? Wenn, dann auch alle benötigten Kosten für das Hobby Gaming berechnen und nicht nur den Strom!
Für eine Graka kann man heute 1000-2000€ berechnen, und wenn man ein Sim-Fan ist kann man für DLCs für eine Sim schon locker 5000€+ zahlen (Train-Simulator/Flight-Simulator)

Ich persönlich mache den ganzen Wahn mit immer mehr FPS (144+) und höheren Auflösungen (4k+) nicht mehr mit.
Ich zocke alles auf 1080p@60FPS + gesamtes System Undervoltet + CPU-Eco-Mode, das spart ne menge Strom. Mein PC (3700x und RTX2080) benötigt max. 300Watt unter Gaminglast mit einem AAA-Game wie GTA V, RDR 2, AC:Valhalla etc.
 
@SV3N finde das Thema sehr spannend, ich denke aber, dass es auch ein Europa, irgendwann, eine Regelung geben wird, wenn es weiter so stark ansteigt.
 
  • Gefällt mir
Reaktionen: danyundsahne
HeinMueck schrieb:
Erster Satz des Fazits:
"Nachdem es uns anno dazumal unmöglich erschien, eine Kaufempfehlung für die Radeon HD 2900 XT auszusprechen, kommen wir von dieser Haltung gegenüber ATis High-End-Produkten bei der Radeon HD 3870 wieder ab."

"Zwar arbeitet der 3D-Beschleuniger unter vielen Auflösungen und Einstellungen etwas langsamer als die GeForce 8800 GT"

Wir reden hier vom November 2007, da war die schnellere 8800 GTX schon mehr als ein Jahr auf dem Markt und ein halbes Jahr von der 8800 Ultra überholt. Und diese Karten waren je nach Auflösung und Einstellung 25 bis 50% schneller.

Ne ne, high-end war RV670 nie.
 
Solange die Effizienz steigt, ist der absolute Verbrauch nebensächlich, den kann man manuell anpassen.
 
  • Gefällt mir
Reaktionen: Hovac, Zitterrochen und AlphaKaninchen

Anhänge

  • 1641128531540.png
    1641128531540.png
    234,8 KB · Aufrufe: 563
  • 1641128667177.png
    1641128667177.png
    126,4 KB · Aufrufe: 569
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: jemandanders, incurable und Yesman9277
panik schrieb:
Schon korrekt.
Allerdings ist es mir aktuell auch zu hören gekommen, dass einige Leute von ihrem Stromanbieter gekündigt wurden, ich glaube bedingt durch Preise die festgeschrieben waren.

Die sind an den Grundversorger gefallen. Dann kann dir kw/h mal eben schnell mehr als 85cent kosten.
Ich zahlte beim Grundversorger 28 Cent kw/h und selbst der teuerste Tarif liegt unter 30 Cent kw/h.
"Externe Anbieter" sind bei uns teurer als der Grundversorger^^
 
  • Gefällt mir
Reaktionen: panik
Es ist oft nicht so sehr der tatsächliche Verbrauch, der heute starke Netzteile erfordert. Vielmehr sind es kurzzeitige Lastspitzen, die entsprechende Reserven erfordern, die im täglichen Betrieb selten vorkommen, aber wenn, dann das System zum Absturz bringen können.

Vor Jahren genügte mir ein gutes NT mit 250 oder 300W - und das trotz eines 8- bzw. 12-Kern-Prozessors! Jetzt habe ich für den Großteil der Videoberechnung eine RTX 3060, was unter dem Strich (Stichwort Renderzeit) sogar deutlich weniger Strom verbraucht, als das Encoding mittels CPU. Aber um auch die Lastspitzen von CPU und GPU abzufangen (vor allem während der Installation des Systemes, wenn das Undervolting noch nicht voll greift), ist ein 450-W-Netzteil leider nötig
 
  • Gefällt mir
Reaktionen: Hovac, Yesman9277 und AlphaKaninchen
Auch wenn es mir persönlich relativ egal sein kann, weil mein Strom großteils vom eigenen Dach kommt, finde ich die aktuelle Entwicklung wirklich nicht gut!

Meiner Ansicht nach sollten die Hersteller langsam aber sicher wieder umsteuern. Meine CPU hat eine TDP von 65 W, wenn ich da vor allem die aktuellen Intel-Produkte sehe, weiß ich nicht ob ich lachen oder heulen soll 😵‍💫

Bei den GPUs ist es leider noch schlimmer. 🤮
 
  • Gefällt mir
Reaktionen: Hawk1980 und Mad-Ric
Ich gehe davon aus, dass der Verbrauch erstmal leicht im Durchschnitt steigen wird, dann stagniert, um dann langsam wieder zu sinken ;)
 
  • Gefällt mir
Reaktionen: Blumentopf1989
Rickmer schrieb:
Die Zukunft liegt bei Wafer-Scale Chips mit jenseits von 20kW Leistung

Denkbar.

In einem Radar oder irgend welchen anderen industriell genutzten Dingen. Bei einem Atom Uboot z.B., lohnt sich so etwas für das Sonar. Für dich und mich, wird das nix.

20 KW Leistung, können wir nicht einmal sinnvoll mit Strom füttern. Die Leitungen in den Wohnungen, würden dabei langsam anfangen zu leuchten, bei dem "Klingeldraht" der dort in den Wänden verlegt wird. :heilig:

mfg
 
  • Gefällt mir
Reaktionen: medsommer und AlphaKaninchen
Enigma schrieb:
Steigen weil mehr Multi-Chip Lösungen.
sinken, weil mehr multi-chip lösungen.
mehrere chips, die in ihrem optimalen bereich arbeiten können, dürften effektiver sein und besser skalieren, als ein vollkommen überzüchteter einzelchip.
die heutige technik ist nicht mehr vergleichbar mit der früheren, wo es "1 chip +1 chip = 1,3fache Leistung bei zweifachem energieverbrauch" hieß. oder würdest du sagen, dass heutige mehrkernprozessoren ineffizient sind wie es frühere systeme aus 2 einkernprozessoren waren?

daher - die auch wenn die spitzenlast für kurze zeiträume steigen mag, auf die nächsten 5 jahre gesehen glaube ich, wird der stromverbrauch für systeme im schnitt sogar eher sinken.
 
  • Gefällt mir
Reaktionen: .Sentinel.
danke für den artikel :)
persönlich fänd' ich auch (mehr) artikel zum thema "stromverbrauch senken" schön/interessant/sinnvoll
 
  • Gefällt mir
Reaktionen: _Snaker_, Monarch2, Darkscream und eine weitere Person
[wege]mini schrieb:
20 KW Leistung, können wir nicht einmal sinnvoll mit Strom füttern. Die Leitungen in den Wohnungen, würden dabei langsam anfangen zu leuchten, bei dem "Klingeldraht" der dort in den Wänden verlegt wird. :heilig:

mfg
Liegt unter der Leistung von zwei normalen Wallboxen, und selbst die kriegt
man ohne Aufbohren des Hausanschlusses je nach Region für ein Haus aus den 90ern meist noch genehmigt.
Allein für den PC ist es "etwas" über dem Durchschnitt, schon. :p
 
PusteBlume0815 schrieb:
Das meinst du jetzt aber nicht im Ernst oder? Aktuell bezahle ich ca 28Cent/KWh.

Heute morgen gelesen: Finanzminister Lindner will die EEG-Umlage 2023 abschaffen. Da glaube ich nie dran. Und selbst wenn es käme. Irgend was neues fällt denen dann doch wieder ein.

Hi,

mag mit den alten Verträgen so sein. Denke Ende 2022 werdet auch Ihr das böse erwachen beim Strom haben, wenn Ihr dann die neue Tarife bekommt. Ihr werdet dann zwar ein Haustarif bekommen aber der wird trotzdem deutlich ansteigen.

Und zu den Grafikkarten. Da wird wohl die Stromspirale nach oben zeigen. Da werde ich dann mein 2 Hobby dann den Vorrang geben.

LG
 
  • Gefällt mir
Reaktionen: n8mahr
[wege]mini schrieb:
In einem Radar oder irgend welchen anderen industriell genutzten Dingen. Bei einem Atom Uboot z.B., lohnt sich so etwas für das Sonar. Für dich und mich, wird das nix.
Für Server könnte es aber intressant sein... man muss es halt so konstroieren das Fehler in der Belichtung gut weggeschaltet werden können. (also z.B. viele einzeln abschaltbare Kerne)
[wege]mini schrieb:
20 KW Leistung, können wir nicht einmal sinnvoll mit Strom füttern. Die Leitungen in den Wohnungen, würden dabei langsam anfangen zu leuchten, bei dem "Klingeldraht" der dort in den Wänden verlegt wird.
Der Hausanschluss sollte es packen, Auto läd ja auch, muss man halt eine Ordentliche Leitung zum Rechner legen, statt Klingeldraht.
 
  • Gefällt mir
Reaktionen: [wege]mini
Zurück
Oben