Bericht Intel-Arc-Grafikkarten: Der Stromverbrauch bleibt auch mit aktuellen Treibern hoch

Lutscher schrieb:
Mir ist der Idle Verbrauch egal, meine Rechner laufen nicht genug damit das ins Gewicht fällt.
In deinem Fall zahlt ja vermutlich der Arbeitgeber die Stromrechnung oder du hast das „Glück“ nicht am PC bei der Arbeit sitzen zu müssen.
Lutscher schrieb:
Zum Surfen, Lesen und Schreiben gibt es außerdem effizientere Geräte als ein X86 Desktop mit dedizierter Grafikkarte.
Homeoffice würde ich nur ungerne am Tablet/Smartphone betreiben …
Lutscher schrieb:
Abgesehen vom Zocken und Bildbearbeitung, mach ich fast alles mit dem Tablet.
Das ist schön, produktiv gesehen lässt sich mit einem Tablet aber nicht viel machen bzw. wäre es in den meisten Fällen einfach sehr unpraktisch.
 
PegasusHunter schrieb:
Ich bin warscheinlich der einzige Intel-ARC-770 16GB Besitzer, der Glück gehabt hat (endlich Bios-Update von MSI) und kompetent genug ist sein System so, einmalig, einzustellen, dass im Idle 5 W erreicht werden können.
Nö, alle die einen 60Hz FHD Monitor betreiben und die Einstellungen gem. Intels Empfehlung umsetzen, erreichen diesen Idle Verbrauch. Kann ich mit meinem Phillips WQHD Moni bestätigen, da mit ein paar W mehr Verbrauch wegen höherer Auflösung. Sobald ich die Auflösung auf 75Hz stelle schnellt der Verbrauch aber wieder auf die 38w oder ähnlich hoch.

Es ist einfach unglücklich und wird bei Battlemage oder dem ominösen Arc Refresh hoffentlich nicht mehr vorkommen.


Telechinese schrieb:
Intel hat's "voll drauf"!
Alter Schwede!
Über 40W im Desktop-Betrieb? Kannst ned erfinden... 🤪
Vermutlich ist es dort nur ein Treiber-Problem, aber z.B. die RTX4060 nimmt im idle unter W11 auch 50W auf. Ist nicht nur Intel. AMD ist auch net viel besser.

Betrachtet man NUR den Stromverbrauch der Arc A770 bei angenommenen 24h/365d, Strompreis brutto mein Tarif derzeit 0,29 EUR

Macht dann aus:
96,xx EUR

Realistisch betrachtet läuft mein Rechner im Durchschnitt 4h - das wären dann kosten von 11,50 EUR im Jahr, WENN er die 4 Stunden nur idlen würde. Wenn ich jetzt annehme, dass er von diesen 4 Stunden 30 Min im idle verbringt, dann sind es auf den idle bezogen, ca. 1,43 EUR Strom, die die Karte im idle mit 38W kostet.

Das soll nichts schönreden, aber ich setze die sehr hitzige Diskussion der idle-Verbräuche nur mal in Relation.

Klar, mein Nutzerprofil ist keinesfalls Standard, gleichzeitig aber auch keinesfalls jenseits aller Normen.


Persönliches Fazit für mich lautet also:

Es gibt gute Gründe eine GPU zu kaufen und genau so gute Gründe eine GPU NICHT zu kaufen. Alle haben, je nach Anforderungsprofil mehr oder weniger Relevanz im Einzelfall.

Bei MIR ist der idle-Verbrauch aber eher so wichtig, wie als wenn ich entscheiden muss, ob ich meinen Jahresverbrauch an Eisdielen-Eis um eine halbe Kugel reduzieren sollte oder nicht. Rein kostentechnisch gesehen.

--------------------
Die Gültigkeit der Aussage: Je niedrigerer Stromverbrauch desto besser bleibt davon natürlich unberührt.
 
  • Gefällt mir
Reaktionen: MalWiederIch
Trotz aller Unken Rufe, Intel hat geliefert und arbeitet stetig weiter an den Treibern. Mal angesehen von Apple (die es weit einfacher hatten, da alle Hard- und Software intern entwickelt wurden) sind sie die einzigen, die dieses Jahrtausend in den PC GPU Markt eingestiegen sind und nicht gleich gescheitert sind.
 
DaBo87 schrieb:
Nö, alle die einen 60Hz FHD Monitor betreiben und die Einstellungen gem. Intels Empfehlung umsetzen, erreichen diesen Idle Verbrauch. Kann ich mit meinem Phillips WQHD Moni bestätigen, da mit ein paar W mehr Verbrauch wegen höherer Auflösung. Sobald ich die Auflösung auf 75Hz stelle schnellt der Verbrauch aber wieder auf die 38w oder ähnlich hoch.

Es ist einfach unglücklich und wird bei Battlemage oder dem ominösen Arc Refresh hoffentlich nicht mehr vorkommen.



Vermutlich ist es dort nur ein Treiber-Problem, aber z.B. die RTX4060 nimmt im idle unter W11 auch 50W auf. Ist nicht nur Intel. AMD ist auch net viel besser.

Betrachtet man NUR den Stromverbrauch der Arc A770 bei angenommenen 24h/365d, Strompreis brutto mein Tarif derzeit 0,29 EUR

Macht dann aus:
96,xx EUR

Realistisch betrachtet läuft mein Rechner im Durchschnitt 4h - das wären dann kosten von 11,50 EUR im Jahr, WENN er die 4 Stunden nur idlen würde. Wenn ich jetzt annehme, dass er von diesen 4 Stunden 30 Min im idle verbringt, dann sind es auf den idle bezogen, ca. 1,43 EUR Strom, die die Karte im idle mit 38W kostet.

Das soll nichts schönreden, aber ich setze die sehr hitzige Diskussion der idle-Verbräuche nur mal in Relation.

Klar, mein Nutzerprofil ist keinesfalls Standard, gleichzeitig aber auch keinesfalls jenseits aller Normen.


Persönliches Fazit für mich lautet also:

Es gibt gute Gründe eine GPU zu kaufen und genau so gute Gründe eine GPU NICHT zu kaufen. Alle haben, je nach Anforderungsprofil mehr oder weniger Relevanz im Einzelfall.

Bei MIR ist der idle-Verbrauch aber eher so wichtig, wie als wenn ich entscheiden muss, ob ich meinen Jahresverbrauch an Eisdielen-Eis um eine halbe Kugel reduzieren sollte oder nicht. Rein kostentechnisch gesehen.

--------------------
Die Gültigkeit der Aussage: Je niedrigerer Stromverbrauch desto besser bleibt davon natürlich unberührt.
Im Homeoffice mit sehen das bestimmt einige noch etwas anders, aber klar wird daraus ständig ein größeres Thema gemacht als es ist.

10W 24/7 machen im Jahr 25€.

Und hier wird über 30W hin oder her bei 5-10 Stunden Gaming die Woche diskutiert :rolleyes:

PS. Die Leistungsaufnahme von 50W die du bei der RTX 4060 mit 50W bezifferst bezieht sich aufs Gesamtsystem. Die 40W von Intel bzw. teils auch bei AMD im Multi-Monitor-Betrieb sind nur die Grafikkarten selbst.
 
  • Gefällt mir
Reaktionen: DaBo87
john.smiles schrieb:
Trotz aller Unken Rufe, Intel hat geliefert und arbeitet stetig weiter an den Treibern. Mal angesehen von Apple (die es weit einfacher hatten, da alle Hard- und Software intern entwickelt wurden) sind sie die einzigen, die dieses Jahrtausend in den PC GPU Markt eingestiegen sind und nicht gleich gescheitert sind.
Absolut meine Meinung… Intel ist meiner Meinung nach die einzige Firma, der ich noch zutraue zu NVIDIA aufzuschließen. Ich hatte die letzten Jahrzehnte eigentlich immer AMD-Produkte aber meine RX6900XT wird jetzt dann auch definitiv meine letzte AMD-Grafikkarte sein. Wenn ich mir ansehe wie NVIDIA immer weiter davonzieht, dann sehe ich für AMD absolut schwarz. Man hat immer das Gefühl einen Generation hinten dran zu sein und ich sehe weder den Willen noch das Können (zumindest bei den Grafikkarten von AMD) diesen Zustand zu ändern. Bei NVIDIA dagegen -> CUDA, die besseren Encoder und das raffinierte Marketing (RTX only Games) werden den Abstand weiter anwachsen lassen und bei Intel bekomme ich schon beim Erstlingswerk sehr gute Encoder und eine mittlerweile durchaus brauchbare Performance fürs kleine Geld. Bin wirklich auf die Battlemage/Celestial Generation gespannt…

Zum Thema: ob meine RX6900XT jetzt 38 W@144Hz im Idle braucht oder eine Intel 40 W, interessiert mich nicht wirklich…
 
MalWiederIch schrieb:
In deinem Fall zahlt ja vermutlich der Arbeitgeber die Stromrechnung oder du hast das „Glück“ nicht am PC bei der Arbeit sitzen zu müssen.

Homeoffice würde ich nur ungerne am Tablet/Smartphone betreiben …

Das ist schön, produktiv gesehen lässt sich mit einem Tablet aber nicht viel machen bzw. wäre es in den meisten Fällen einfach sehr unpraktisch.
Nein, ich bezahle meinen Strom selber, meine PCs sind nur fürs Hobby.
Ich kann lediglich meine mobilen Endgeräte auf der Arbeit laden.
Davon abgesehen gibt es im Haushalt andere Verbraucher, die deutlich mehr Strom pro Jahr verbrennen.
Ich gucke z.B. bei Kühl- oder Gefrierschränken genau auf den Verbrauch, weil die Dinger im Normalfall 24/7 laufen.

Homeoffice lässt sich in vielen Fällen mit einem effizienten Laptop mit zusätzlichen Monitoren und Eingabegeräten gestalten, ich kenne nur wenige Personen die wirklich die Power von einem X86 Desktop mit extra Grafikkarte im Job benötigen. Der PC Markt schrumpft nicht umsonst seit Jahren. Klick

Produktiv kommt es ganz auf den Anwendungsfall an.
Mein Chef nutzt z.B. fast nur noch ein Tablet mit Tastatur, während ich immer auf ein robusten kompakten Laptop angewiesen bin.

@SP-937-215
Ich würde es nicht so schwarz sehen, es gab in der Vergangenheit schön öfters Zeiträume wo Nvidia davon gezogen ist, bis jetzt konnte AMD immer wieder anschließen.
Ich fand gerade die RDNA 2 Generation nicht gerade "hinten dran".
Das AMD nicht das Budget wie Nvidia hat sollte wohl jedem klar sein.
 
Vielleicht sollte Intel mal bei VW anklopfen und ein paar Softwareprogrammierer dort abwerben.
Die wissen ja bestens, wie man bescheißt 😂

Und damit ich nicht gleich wieder von einem übereifrigen Mod verschoben werde: diese Art des Energiesparens ist natürlich nicht so optimal wie einfach nur bei AMD und Nvidia,
aber mal kurz das Bios aufsuchen und die Energieoptionen dahin gehend zu verändern, erachte ich nicht wirklich als zu anstrengend.

No pain, no gain
 
PegasusHunter schrieb:
Keine Ahnung was es für Probleme gibt, vielleicht sollte sich ein Fachmann derer annehmen.

Ich bin warscheinlich der einzige Intel-ARC-770 16GB Besitzer, der Glück gehabt hat (endlich Bios-Update von MSI) und kompetent genug ist sein System so, einmalig, einzustellen, dass im Idle 5 W erreicht werden können.
Viel Glück den Anderen, damit es bei Ihnen auch funktioniert.
Anbei ein eben gemachter Screenshot. :schluck:
Hatte neulich Informiert, dass im Bios folgende Einstellungen zu machen sind und seit der neusten Final meines Maiboardes endlich auch im Bios vorhanden sind.
- Modify language related issue.- Add ASPM Control item.
Dazu auch ein Screenshot des Bios.
Also bei allen CPUs und GPU kann man im Bios viele Sachen optimieren.

Aber wenn es eine Intelgrafikkarte ist, daaaannnn ist es natüürlich zu kompliziert. Alles klar :heilig:
Is ja ein Ding! Hätte ich nicht für möglich gehalten dass das nochmal passiert..

Hatte genau das gleiche board von msi und war - unter anderem - wegen eben jenem fehlenden feature extrem genervt & enttäuscht von msi,

Hatte mehrmals den Support angeschrieben diesbezüglich da hieß es nur nachdem man zuerst gar nicht reagierte, so ähnlich wie " sowas gibt's nicht für x570 bzw am4" was natürlich kompletter Quatsch ist..
hatte dann dem Händler die Dinge erklärt, das Board zurück gegeben bei 100% Erstattung und bin auf ein Gigabyte gewechselt, dem einzigen Hersteller den ich kenne der das quasi von "Anfang an" implementiert hatte und auch im Handbuch dokumentiert hat dass die Option vorhanden ist.

Hab mir damals gesagt nie wieder msi, weil zuviel Geld für den Namen, unnützes gam0r Bling bling & zu wenig Qualität/Ausstattung/Service dafür, und werd auch dabei bleiben..

Aber ich freu mich, falls es dem einen oder anderen nun spät aber doch Helfen sollte, dass msi nun endlich bisschen nachzubessern scheint..
 
  • Gefällt mir
Reaktionen: PegasusHunter
Hab die auch genervt und fies gelästert scheinen also mehrere gemacht zu haben :heilig:
 
  • Gefällt mir
Reaktionen: lynxx83
Ja? Na wer weiß ... ;)

Schließe mich an , würd mich auch interessieren @Wolfgang ,
wieviel verbraucht eigentlich ein und dasselbe system, abseits von gaming & idle,

Also etwa intel arc vs amd vs nvidia ,

Bei office word, cb lesen,
oder video streaming auf yt, prime netflix usw
(fhd, 4k, h264, h265 vs av1 usw)

Wie hoch sind da außerdem die Unterschiede je nach verwendetem Browser? ( Edge, firefox, Chrome zb)

Und wieviel watt Einsparung sind zusätzlich möglich, wenn aspm an ist und korrekt funktioniert, für weitere, per pcie angeschlossene hardware?
Gibt es überhaupt noch aktuelle oder ältere andere Geräte außer einer arc gpu die derzeit signifikant davon profitieren können?

Hab mal einen User test dazu gelesen ob bzw wann und wieviel aspm "on" zusätzlich noch bringen kann, ohne arc.. den finde ich aber leider grade nicht mehr.

Im übrigen so finde ich, lässt sich am meisten strom sparen,

wenn man erstens die Daten Krake Windows und ihre automatisch geplanten Background tasks in ihre Schranken weist,
und zweitens, den PC wenn man ihn nicht braucht, in soft off s5 versetzt, also "ausschaltet" ;) wer hätte das gedacht..
ich jedenfalls brauch keinen sleep modus, oder hibernate, mir gehts auch so schnell genug.
(Stand pc, kein mobiler laptop)

PS: Probleme beim stromsparen sind aber eh grade in Mode, bei amd läuft's mit der aktuellen gen unter bestimmten Voraussetzungen ja auch alles andere als rund..
 
Zuletzt bearbeitet:
PegasusHunter schrieb:
Was soll die Steckdose denn zu mir sagen? Oder gibt es spezial-ernegiemeß-Steckdosen, die einem sagen, was im System die Grafikkarte verbraucht?

Aus der Differenz kann man den Verbrauchsvorteil ermitteln. Die Software kann Müll anzeigen, so wie bei meiner A380 von Asrock. Die Strommessung direkt an der Steckdose zeigt die Wahrheit.


Ich habe es mal gemessen vom gesamten PC mit der A380. Der Vorteil schwindet wenn man die Maus bewegt, er ist aber schon noch vorhanden.

ASPM L1 + mittlere Energieeinsparung Idle: 48 Watt
langsame Maus Bewegung: 49-50 Watt
schnelle Maus Bewegung: 50-51 Watt

ASPM L1 + maximale Energieeinsparung Idle: 31 Watt
langsame Maus Bewegung: 38 Watt
schnelle Maus Bewegung: 44 Watt
 
ASPM aktiviert und auf L1, sowie ASPM Native Control aktiviert sollte eigtl. bei jedem Board Standardeinstellung sein, das sind essenzielle Stromsparmethoden. Ein Unding, dass es immer noch Boards gibt, bei denen das in der Voreinstellung deaktiviert ist. Für sämtliche PCIE-Schnittstellen ist das sonst einfach vollkommen unnütze Energieverprassung, pro PCIE-Device können damit einige Watt im idle gespart werden. Durch Aktivierung sinken die Chipsatztemperaturen auch oftmals instantan um 5-10°C. Auch für jede einzelne gesteckte NVMe-SSD lassen sich so etliche Watt sparen.

Unter Windows sollte man auch ruhig die "Maximalen Energieeinsparungen" immer einschalten, egal ob Arc oder nicht. Es spart auch bei anderer PCIE-Hardware Strom. Oftmals behauptete Leistungseinbußen sind schlicht nicht existent. Denn sämtliche dieser ASPM-Energieeinsparungen kommen überhaupt nicht mehr zur Anwendung, sobald die Schnittstelle auch nur in irgendeiner Weise genutzt wird. Es können also z.B. die fps dadurch nicht sinken, wenn das auf "Maximale" statt "Mittlere Einsparungen" oder ganz aus steht. Maximal bedeutet, Windows erlaubt der PCIE-Schnittstelle bei idle in den L1 zu gehen, Mittel bedeutet, es geht nur bis in den L0s. Wenn irgendwelche Daten übertragen werden, ist die Schnittstelle in keiner der beiden Sparzustände, folglich wird es bei Nutzung der GPU vollkommen unerheblich, welcher Zustand theoretisch maximal erlaubt ist.

Also immer ruhig vollständig aktivieren, man verliert dadurch weder einen einzigen fps, noch einen einzigen Punkt im Cinebench etc..
 
  • Gefällt mir
Reaktionen: 407SW und MaverickM
polyphase schrieb:
Solange moderne CPUs solche Stromfresser geworden sind, ist der der Idle Verbrauch der GPU sowieso egal

Das sehe ich anders. Aktuelle CPUs haben sehr gute Idle-Verbrauchswerte, warum sollte die GPU, wenn sie sowieso nichts zu tun hat, dann so prassen!?

Das hochgezüchtete Systeme im Idle mehr brauchen als andere, dürfte klar und noch akzeptabel sein. Aber auch dort sollte eben kein Watt unnötig verschwendet werden, wenn man mal eben nur triviale Dinge am Rechner macht.
 
Alles in allem hat sich Arc aber gut geschlagen. Die Treiber werden wohl von Mal zu Mal besser.
Für ältere Spiele ist es wohl nicht so toll, aber ich denke, dass sich Intel langfristig etablieren kann.
Sie müssten halt noch ein bisschen Know-How einkaufen. Dann läuft das schon!
 
Bei der Videowiedergabe in youtube bringt ASPM L1 ähnlich viel, gerade getestet.
 
tox1c90 schrieb:
ASPM aktiviert und auf L1, sowie ASPM Native Control aktiviert sollte eigtl. bei jedem Board Standardeinstellung sein, das sind essenzielle Stromsparmethoden. Ein Unding, dass es immer noch Boards gibt, bei denen das in der Voreinstellung deaktiviert ist. Für sämtliche PCIE-Schnittstellen ist das sonst einfach vollkommen unnütze Energieverprassung, pro PCIE-Device können damit einige Watt im idle gespart werden. Durch Aktivierung sinken die Chipsatztemperaturen auch oftmals instantan um 5-10°C. Auch für jede einzelne gesteckte NVMe-SSD lassen sich so etliche Watt sparen.

Unter Windows sollte man auch ruhig die "Maximalen Energieeinsparungen" immer einschalten, egal ob Arc oder nicht. Es spart auch bei anderer PCIE-Hardware Strom. Oftmals behauptete Leistungseinbußen sind schlicht nicht existent. Denn sämtliche dieser ASPM-Energieeinsparungen kommen überhaupt nicht mehr zur Anwendung, sobald die Schnittstelle auch nur in irgendeiner Weise genutzt wird. Es können also z.B. die fps dadurch nicht sinken, wenn das auf "Maximale" statt "Mittlere Einsparungen" oder ganz aus steht. Maximal bedeutet, Windows erlaubt der PCIE-Schnittstelle bei idle in den L1 zu gehen, Mittel bedeutet, es geht nur bis in den L0s. Wenn irgendwelche Daten übertragen werden, ist die Schnittstelle in keiner der beiden Sparzustände, folglich wird es bei Nutzung der GPU vollkommen unerheblich, welcher Zustand theoretisch maximal erlaubt ist.

Also immer ruhig vollständig aktivieren, man verliert dadurch weder einen einzigen fps, noch einen einzigen Punkt im Cinebench etc..
Welches Mainboard hat die Funktionen denn werksseitig aktiviert? Ich kenne kein einziges, weder von verschiedenen Modellen, noch von irgendeinem Hersteller.

Die generelle Empfehlung, die PCIe-Stromsparfunktion auf Maximum zu setzen, halte ich für fragwürdig. Bei uns im Test gab es wie gesagt in manchen Szenarien Probleme damit, hier im Thread hatte auch wer Probleme. Das muss nicht immer so sein, aber man sollte schon etwas Vorsicht mit der Funktion walten lassen.
 
Steckt eben noch in den Kinderschuhen, mit den üblichen Kinderkrankheiten.

Aber Positiv betrachtet ist es kein Haarföhn geworden, keine Heizplatte um den Kaffee warm zu halten, oder grillt den PCIe Stromstecker. 😉
 
IdefixWindhund schrieb:
Steckt eben noch in den Kinderschuhen, mit den üblichen Kinderkrankheiten.

Aber Positiv betrachtet ist es kein Haarföhn geworden, keine Heizplatte um den Kaffee warm zu halten, oder grillt den PCIe Stromstecker. 😉
Den „PCIe Stromstecker“ aus brandsicherem Material „grillen“ nur Käufer die nicht fähig sind den Stecker sicher einzurasten.
Waren ja immerhin weltweit keine Handvoll Käufer die das geschafft haben …
 
PegasusHunter schrieb:
Auf jeden Fall verbraucht mein Ryzen 9 5950X im Idle unter 10 Watt.
Bezieht sich das auf die Summe aus CPU und SOC aus dem Screenshot von Ryzen Master? Bei dem steht jedenfalls die Angabe zur Package Power auf "23% von 120W", was 27,6W ergibt, also klar mehr als 10W. Was sagt denn HWiNFO zur Package Power im Idle? Auf den HWMonitor kann man sich jedenfalls bei Ryzen nicht verlassen, der meldet auch 7 GHz Takt, wenn man lange genug wartet.
 
Zurück
Oben