News Effizienz & Verbrauch: Wollt ihr mehr über effiziente o. sparsame Hardware lesen?

mgutt schrieb:
Das bestimmt aber der Hersteller. Heutzutage kann man daran ja nichts mehr verändern. Aus dem Grund machen ja manche einen Crossflash, um das Power-Limit zu erhöhen, weil man eben sonst keine Möglichkeiten mehr hat was einzustellen.
Achnaja, custom bios versionen waren ja gerade bei Minern dann sehr beliebt, aber selbst für Gamer gibt es noch das ein oder andere Tool, wie zum Beispiel Red Bios Editor:

https://www.igorslab.de/en/red-bios...even-more-stable-overclocking-navi-unlimited/
Ergänzung ()

Unioner86 schrieb:
Nein, nein und nochmals nein. Hier sollte es nur um Leistung gehen.
Also nur noch 4090 oder besser testen, weil alles andere eh irrelevant ist was die Leistung angeht? ;-)
 
Bin ein Freund von Effizienten Systemen, aber auch den Gesamtverbrauch sollte man nicht aus den Augen verlieren. Es ist irrsinn in einen Rechner massenhaft kW rein zu pumpen, nur um die GPU zu belustigen.

Natürlich auch abhängig von der Nutzung und Zweck des Rechners.
 
testwurst200 schrieb:
Ich behaupte mal, einigen geht es hier nicht um den Verbrauch sondern um die damit verbundene Lautstärke.
Was vor 15 Jahren als leise galt, wird heute als unerträglich laut empfundenen
Das ist doch gerade das wunderbare am Undervolting und dem Betreiben der Hardware im effizientesten Bereich. Es ergeben sich daraus so viele Vorteile. Weniger Hitzenentwicklung, längere Lebensdauer durch geringere thermische Belastung, leiseres System (da weniger Kühlleistung benötigt wird) und geringerer Verbrauch (in dem Land mit den weltweit höchsten Energiekosten auch ein nicht zu vernachlässigender Faktor).
 
  • Gefällt mir
Reaktionen: ichmich2000
wenn jetzt noch die Hersteller mitziehen würden und nicht noch fettere und Stromfressendere Hardware auf den Markt bringen, wäre das schon mal nicht schlecht
natürlich will jeder mehr Leistung haben und die Spiele noch flüssiger zocken, aber gerade in der heutigen Zeit, muss man da irgendwo einen gesunden Mittelweg finden
ob das die Hersteller jetzt schon (intensiv) genug machen, kann ich ehrlich gesagt nicht beurteilen
 
Generell muss der Stromverbrauch des gesamten PC gesenkt werden. Im Idle 15-20W (mit 1-2 SSD Festlatten) und beim Zocken hoch auf ~50W (60fps-cap). Die GPU sei leistungsstark wie die 1660ti, das wäre super.
 
@SVΞN
Viele Vorschläge kamen ja schon zum Thema Hardware-Feintuning.

Aber ich würde das Thema "Effizienz" und "Energieverbrauch" auch gerne etwas weiter ziehen. Hier im Thread (aber auch in anderen Threads) ist mir aufgefallen, dass bei vielen Leser*innen offenbar deutlicher Nacholbedarf in Sachen "Grundlegende Fragen der Energieversorgung, Effizienz, Energienutzung und Energiekonkurrenz" besteht. Das geht zwar über Euren "Kernbereich" Handware hinaus, aber das geht Ihr mit anderen (von mir gern gesehen Themen) wie z.B. Autos sowieso jetzt schon. Euch traue ich zu, das Thema halbwegs differenziert, fundiert, rechnerisch durchkalkuliert und abseits von Lobby-basierten Stammtisch-Plattitüden zu behandeln. Dass Ihr das könnt, habt Ihr bei schon oft bewiesen, angefangen z.B. bei der Bildqualitätsdiskussion bei Grafikkarten (siehe auch: https://www.computerbase.de/artikel...steckspiele-bei-atis-texturfilter.338/seite-4 und https://www.computerbase.de/artikel/grafikkarten/bericht-die-qualitaet-des-anisotropen-filters.1063/ ). Die Reichweite habt Ihr vermutlich auch, um damit einen aufklärenden Gesamtbeitrag zur Gesamtdiskussion liefern zu können.
 
  • Gefällt mir
Reaktionen: SVΞN und .Ake
Der Bedarf ist vorhanden wie man, am bisherigen Abstimmungsverhalten, erkennen kann.


Screenshot 2022-10-31 114930.jpg
 
Für mich ist das aktuelle Problem bei der Hardware - wie für manche andere - dass der absolute Verbrauch teilweise ohne wirklichen Mehrzweck aufgerufen wird durch AMD, Intel und NVIDIA.

Die 3090 und 3090 Ti haben schon gezeigt, dass die Karte von 350 W und später 450 W zu 300 W nur ca. 10 - 15 % an Leistung gewinnen, dafür aber 50 % mehr Energie benötigen. Und auch jetzt zeigt sich bei der 4090, dass sie entweder oft die 450 W nicht mal im Ansatz benötigt und in den Spielen, in denen sie 450 W abruft, verliert sie zu 350 W bis zu 5 % und bei 300 W bis zu 10 %.

Auch wenn die 4090 "effizienter" ist bei 450 als die Vorgänger Generation, zeigt sich gerade bei 300 W einen echten Sweetspot und zeigt da wirklich wie effizienz sie ist. 350 W kann man dabei noch verstehen, auch wenn hier für ca. 5 % mehr Leistung 16 % mehr Energie veranschlagt wird, dass steht aber noch halbwegs in Relation. Aber für 10 % dann 50 % mehr Energie ist eben echt nicht mehr feierlich.

Hätte NVIDIA die 4090 mit 300 W oder 350 W und dann als "optionales BIOS" 450 W veröffentlicht, dann wäre ich von der Karte echt vollkommen begeistert.

Gleiches gilt für Intel oder AMD bei Zen 4 oder Raptorlake. Beides sind tolle CPU, aber diese maximal Verbräuche verhageln mir etwas die Laune bei diesen Produkten und auch hier ist es teils bei beiden so absolut unnötig.
 
An der Stelle möchte ich mal nach einem Henne-Ei-Problem fragen:
Was war eigentlich zuerst da? Aufgemotzte Brechstangenhardware oder miserabel ineffiziente Games?

Ich finde, es braucht dringend mal eine Vergleichsgröße oder -index, an der man ablesen kann, wie gut oder schlecht ein Spiel gecoded ist, zum Beispiel im Vergleich mit einer Standardreferenz der jeweiligen Engine. Wenn es da auf einmal ein Prädikat zu gewinnen gäbe, wäre bei den Entwicklern vielleicht etwas Motivation dahingehend vorhanden.

Nicht falsch verstehen: ich bin ja durchaus dafür, bei Hardware auf Effizienz zu achten und sehe das auch als Qualitätsmerkmal einer Architektur. Aber für das ganze Bild muss man auch die Softwareseite betrachten und dann wäre es etwas unfair, den schwarzen Peter für die steigenden Verbräuche nur bei den Hardwareherstellern abzuladen.
 
Sparsamkeit & Effizienz beschreiben für mich - zumindest in der Regel - sehr ähnliche Dinge. Ich formuliere bewusst "sehr ähnlich", da alleine schon die beiden Worte, nämlich Sparsamkeit & Effizienz in jede Richtung ein typisches ja, aber... ermöglichen.


@SVΞN ich würde gerne folgendes anregen: könnt ihr bei kommenden Tests, auch bei Grafikkarten und Prozessoren, im Fazit eine "Verbraucht unter Vollast xyz kw / 1000 Stunden" (Auslieferungszustand ohne Veränderungen des Nutzers im Sinne von OC oder UV) angeben?

Ist in meinen Augen für viele Leser sinnvoll und eventuell bringt eine solche Angabe auch mehr Licht ins Dunkel, wenn es mal wieder heißt "AMD / Intel oder AMD / nVidia verschwendet mehr Strom als der andere".

@lamda der ATX Standard wurde im Lauf der Jahre stetig verändert und angepasst. Die von dir gelobten Dell, Fujitsu, etc. basteln dann aber gerne ihr ganzes System so zusammen, daß du in der Wahl deiner Komponenten eingeschränkt bist.

"Oh, ich brauche ein neues Mainboard...ach Mist, der Hersteller meines Rechners hat hier ein Netzteil mit 12-Pin (oder 14-Pin verbaut...dann kann ich mein Wunschboard ja gar nicht nutzen".

Klar gibt es Adapter, aber jeder zusätzliche Adapter ist eine potentielle Fehlerquelle.

Daraus wird dann auch noch ein Schuh, wenn du eine stärkere Grafikkarte willst. Meist sind die Komplettsysteme spitz-auf-Knopf-genäht. so daß du nur wenig verändern kannst.

Es sind die von dir genannten Hersteller, die abseits eines gängigen Standards arbeiten und somit die Nutzer eher einschränken. Ob man das so loben sollte, nur weil sie "12 Volt only" bieten? Ich würde es nicht tun.
 
  • Gefällt mir
Reaktionen: SVΞN
BoardBricker schrieb:
Aber für das ganze Bild muss man auch die Softwareseite betrachten und dann wäre es etwas unfair, den schwarzen Peter für die steigenden Verbräuche nur bei den Hardwareherstellern abzuladen.
Die Softwareseite entwickelt für das was da ist.
Wenn bei der Zielgruppe genug Leistung da ist, warum dann viele Arbeitsstunden in Performanceoptimierungen stecken?
Oder im Falle von Spielen eine Performanceoptimierung nicht gleich zu nutzen um 3 Grashalme mehr darzustellen?

Ein Spiel, das auf Grund der hohen Anforderungen und der geläufigen HW der Zielgruppe nicht gespielt werden könnte, würde nicht besonders beliebt sein.
Aber man sieht ja wo die Reise hingeht: mehr&mehr Leistung.
Neue HW wird gekauft, weil man was schnelleres möchte, seltenst um die Umweltauswirkungen zu schmälern oder kaputte Hardware zu ersetzen.

Entsprechend produzieren Hersteller und liefern mehr Leistung auf Kosten von Stromverbrauch bis Leute sagen: stopp
Klar Hersteller werben auch genau damit bei den Menschen und wollen damit mehr Verkäufe generieren, weil sie am umsatztechnisch schrumpfen würden, würden sie zu Genügsamkeit und Ressourcenschonung appelieren. Sie würden sich mit den aktuellen wirtschaftlichen Rahmenbedingungen selbst schaden.

Es sei denn der Konsument besteht darauf. Z.B. im Bezug auf Stromverbrauch wegen hohen Stromkosten oder vorhandenes Umweltbewusstsein.

Letzteres wird meist von Kosten/Nutzen getrumpft. Daher wäre es sinnvoll Ressourcennutzung einzupreisen. Ah die Politik ist gefragt. In einer Demokratie meint das jedoch wiederum den Konsumenten, der u.a. für höhere Stromkosten wählen müsste, damit er dann mehr für den Strom zahlen müsste, damit er sich nicht mehr so verschwenderischen Hardware kaufen könnte und so die Softwareentwickler gezwungen sind Software für Hardware mit weniger Leistung zu entwickeln.

Auch interessant:
Wenn grafisch weniger anspruchsvolle Spiele vorgestellt werden, kommen ja sogar Kommentare, dass das ja kein richtiges Spiel sei oder miese Grafik hätte, nur weil keine Photorealismus angestrebt wird.
Hmm ja 😃
 
Zuletzt bearbeitet:
@KitKat::new()

Es geht ja nicht darum, Spiele mit Mittelaltergrafik auf den Markt zu werfen. Ich habe aber den Eindruck, dass sich da eine Spirale in Gang gesetzt hat, in der die Hardwarehersteller immer höhere Spieleanforderungen erwarten, die Spieleentwickler dafür immer potentere Hardware und man sich da gegenseitig unbeabsichtigt hochschaukelt.
Nichts gegen Fortschritt, aber wenn das Ergebnis dann schmelzende Stecker bei GPUs sind, weil man ohne diese brachiale Power Angst hat, dass die Karte mit den übernächsten Spielereleases deutlich zu lahm ist und es dann umgekehrt zum Dank immer schlechter optimierte Spiele gibt - die nächste Hardwaregeneration wird's ja schon richten, vorher ist das Game ja eh nicht fertig gepatched - dann ist das weniger Innovation als vielmehr gegenseitig erzwungene Ressourcenverschwendung.

Daher mein Punkt, dass man bei der Effizienz auch mal auf die Softwareseite blicken sollte.
KitKat::new() schrieb:
Die Softwareseite entwickelt für das was da ist
Wenn das wirklich so wäre, dann wären aktuelle Hardwareanforderungen auf dem Niveau der Oberklasse von Anfang oder Mitte der Entwicklungsphase des jeweiligen Spiels. Tatsächlich wird aber wohl fest damit gerechnet, dass beim Release in x Jahren die Rechenpower y vorhanden ist. Vielleicht sollte da mal etwas konservativer geschätzt werden.
 
BoardBricker schrieb:
Tatsächlich wird aber wohl fest damit gerechnet, dass beim Release in x Jahren die Rechenpower y vorhanden ist. Vielleicht sollte da mal etwas konservativer geschätzt werden.
Naja Spielentwickler entwickeln streng genommen dafür was da ist, während das Spiel released und gespielt wird. Was eben bei der Konsumentenseite da ist beim Konsum.
Warum sollten sie nicht fest damit rechnen, wenn in x Jahren Rechenpower y vorhanden sein wird?

Wenn sie nicht damit rechnen würden, eürden sie ggf. unnötig Geld in Optimierung stecken oder das Spiel grafisch weniger "wow" machen als sie könnten.
Würde ein auf Gewinn orientiertes Unternehmen das jemals machen? Nein, weil man sich das in unserem wirtschaftlichen System nicht leisten kann und die Gamingcommunity nicht in der Lage ist zu sagen: jetzt ist genug.

BoardBricker schrieb:
dann ist das weniger Innovation als vielmehr gegenseitig erzwungene Ressourcenverschwendung.
Unser wirtschaftlicher Rahmen ist so aufgebaut, dass man auf Wachstum (und dazugehörige Ressourcennutzung) angewiesen ist.

PS: habe meinen Post noch bedeutend ergänzt
 
Schade dass die Nintendo Switch nicht alle Spiele erlaubt (GTA 5 ist das auffälligste Beispiel für mich).
Verbraucht nur 11w im TV-Modus im Vergleich zu Xbox/PS (150-200w).

Mich interessiert nur sparsame CPU/GPU/Mainboards sowie sehr effiziente Netzteile. Denn mein neuer PC wird darauf ausgelegt sein, sehr sparsam im Idle sowie beim Zocken (1080p mit 60fps-cap) zu sein.
 
Zuletzt bearbeitet:
TheOpenfield schrieb:
Aber auf RAM OC will man halt als Gamer ohne 3D CPU eher nicht verzichten für ein paar Watt.
Ich glaube, das ist eher ein Kopfding, sind wir uns mal ehrlich, hast du ein Game, in dem du nicht im GPU-Limit bist, oder in einem Limiter? Also ich hab keins (aber trotzdem Ram oced^^).

Ram OC bedeutet halt mehr CPU-Leistung für fast umme bzw. Handbremse gelöst, darauf möchte man halt nicht verzichten. Aber nötig zum Zocken ist es glaube ich nicht. Klar, gibt sicher ein bis zwei Ausnahmen an Games.
 

@BoardBricker


Ich denke, du beschreibst das genau richtig. Die Industrie schaukelt sich da gegenseitig hoch. Der Markt wird
immer größer, aber nicht der Pool an Ideen. Dann wird halt eine neue Grafikengine entwickelt, dann kann ich auch ältere Konzepte wiederverwerten, aber halt mit geiler Grafik.
Und die firmen müssen verkaufen, weil sie sonst pleite gehen, oder ihre Aktionäre unruhig werden. Das gilt für Hard- und Software gleichermaßen.
Effizienz kann man jedoch durchaus an der Nutzungsdauer festmachen. Soll heißen: je länger ich eine Hardware benutzen kann umso ressourcenschonender ist sie. Sowohl für die Umwelt, als auch für meinen Geldbeutel. Die Smartphone-Industrie mit ihren halbjährlichen Produktzyklen ist da ein Negativbeispiel.
Effizienz sollte also nicht nur am (eigenen) Stromverbrauch festgemacht werden, sondern am Gesamtverbrauch an Ressourcen.
 
  • Gefällt mir
Reaktionen: KitKat::new()
TheOpenfield schrieb:
Aber auf RAM OC will man halt als Gamer ohne 3D CPU eher nicht verzichten für ein paar Watt.
Bei den Spezifikationen der B450 Mainboards steht meistens folgendes:
3600(O.C.)/3466(O.C.)/3400(O.C.)/3200(O.C.)/3000(O.C.)/2800(O.C.)/2666/2400/2133 MHz

Bei den B550er sieht das anders aus.
5100(O.C)/5000(O.C)/4800(O.C.)/4600(O.C)/4400(O.C)/4266(O.C.)/4133(O.C.)/4000(O.C.)/3800(O.C.)/3600(O.C.)/3466(O.C.)/3400(O.C.)/3200/3000/2933/2800/2666/2400/2133 MHz

Falls man 3200 Mhz RAM einbauen möchte, wird man bei der B450 Mb einen höheren Stromverbrauch haben (~10w), da das Mainboard im O.C. ist (und nicht der RAM!).

Man muss schon erkennen können wer im O.C. ist^^ aber ohne Mainboard Handbuch ist das unmöglich zu wissen.
 
jogbert schrieb:
Die Industrie schaukelt sich da gegenseitig hoch.
Ich sehe da ganz große Anteile aber halt auch bei den Medien (Testern) und Kunden - zig Seiten Test aber am ende interessiert alle nur wer den längsten (Balken) hat.

Kein Wunder dass die Hersteller dann eben auch standardmäßig erstmal unmengen Verbrauch freigeben wenn sie dadurch in den Tests besser dastehen - der Verbrauch ist eh erstmal nur eine Randnotiz.
 
Nero2019 schrieb:
Bei den Spezifikationen der B450 Mainboards steht meistens folgendes:
3600(O.C.)/3466(O.C.)/3400(O.C.)/3200(O.C.)/3000(O.C.)/2800(O.C.)/2666/2400/2133 MHz

Bei den B550er sieht das anders aus.
5100(O.C)/5000(O.C)/4800(O.C.)/4600(O.C)/4400(O.C)/4266(O.C.)/4133(O.C.)/4000(O.C.)/3800(O.C.)/3600(O.C.)/3466(O.C.)/3400(O.C.)/3200/3000/2933/2800/2666/2400/2133 MHz

Falls man 3200 Mhz RAM einbauen möchte, wird man bei der B450 Mb einen höheren Stromverbrauch haben (~10w), da das Mainboard im O.C. ist (und nicht der RAM!).

Man muss schon erkennen können wer im O.C. ist^^ aber ohne Mainboard Handbuch ist das unmöglich zu wissen.

Da liegst du falsch - der Speichercontroller ist bei allen AM4 CPUs in der CPU integriert und damit unabhängig vom Mainboard (das muss nur die nötige Signalintegrität besitzen; Spannungsversorgung für den DRAM ist vernachlässigbar unterschiedlich). Was OC ist und was nicht, hängt einzig und alleine an der CPU.
 
@TheOpenfield Oberhalb einer nicht bei allen Boards gleichen Schwelle beim RAM-Takt wird V_SOC angehoben, um den höheren Fabric-Takt zu ermöglichen. Dadurch steigt zwar der Verbrauch in der CPU, aber das Board-BIOS ist verantwortlich. Es ist gut denkbar, dass man sich auf B450 schon bei niedrigeren RAM-Takten mit dem Undervolting des IOD beschäftigen muss, um Strom zu sparen.
 
Zurück
Oben