Hybrid Graphics (Win11) - Intel + AMD, geht das?

BLJ

Cadet 4th Year
Registriert
Juni 2005
Beiträge
93
Hallo Zusammen
Ich möchte mir einen neuen PC zulegen. Er wird zu 95+% zum Arbeiten benutzt. Da brauch ich keine dGPU dafür. Also wäre es schön, durch hybrid graphics im Normalbetrieb etwas Stromersparnis zu erreichen.

Kombinieren möchte ich idealerweise:
  • Radeon 9070 XT
  • Intel 265K
Die Intel CPU ist für meinen Arbeits-Anwendungsfall geeigneter/günstiger als ein 9900X. Den Performance-Nachteil beim Gaming bin ich bereit in Kauf zu nehmen.

Kann in einer solchen Kombination mit Intel-CPU und AMD-dGPU hybrid graphics überhaupt funktionieren?
Gibt es Einschränkungen, die es bei einer AMD-AMD Kombination nicht gäbe?

Funktioniert mit hybrid graphics free sync noch?

Sonst noch was zu beachten?

Bekannt ist mir:
  • Auflösung/Refresh-Rate limitiert durch Anschlüsse IGP
  • Muss durch Bios supported werden
  • höhere Latenz der Grafikausgabe

Danke sehr!
 
Zuletzt bearbeitet:
BLJ schrieb:
Also wäre es schön, durch hybrid graphics im Normalbetrieb etwas Stromersparnis zu erreichen.
Dir geht es um die 20 Watt im Idle, die dir zu viel sind? Oder worum geht es genau?
1763722323514.png
 
Wo bin ich hier schrieb:
Dir geht es um die 20 Watt im Idle, die dir zu viel sind? Oder worum geht es genau?
Anhang anzeigen 1677829

Eine Ersparnis von 10W wären auch schon was.
Es würde dann c.a. 26kWh pro Jahr ausmachen. Für den PC alleine.
Dann nochmals 8kWh für die Klimaanlage, total 34kWh (im warmen Süden).
Ist nicht super viel, aber warum verbrauchen wenn nicht notwendig?
 
Vergiss das vorhaben und benutz einfach die 9070XT für alles. Die Stromersparnis ist es nicht wert. Falls du bock auf tüfteln hast, kannst du einen Linux-Host aufsetzen, der mit der iGPU läuft und via GPU-Passthrough eine Windows-VM einrichten, die der 9070XT zugewiesen ist. Die VM startest dann nur bei Bedarf. Mit Windows als Host ist das meines Wissens nach nicht so einfach möglich, wenn überhaupt.
 
Ich versteht ehrlich die Frage nicht. Oder ich versteh irgendwas anderes als du unter hybrid graphics.

Wie soll so etwas bei einem PC funktionieren? Es gibt da keine automatische Umschaltung wie bei Laptops, so das wenn man ne 3D Anwendung startet automatisch auf die dGPU umgeschaltet wird.

Laptops sind da mit expliziten Switches ausgestattet, die da die Bildausgabe entsprechend umleiten.
 
stage schrieb:
Wie soll so etwas bei einem PC funktionieren? Es gibt da keine automatische Umschaltung wie bei Laptops, so das wenn man ne 3D Anwendung startet automatisch auf die dGPU umgeschaltet wird.
https://www.planet3dnow.de/cms/67740-sockel-am5-hybrid-graphics-ausprobiert/2/
BLJ schrieb:
Ist nicht super viel, aber warum verbrauchen wenn nicht notwendig?
Mehr Latenz, zusätzliches Gefrickel in Software/Firmware, Kompatibilitätsprobleme, zusätzliche Komplexität... wäre es ein überwiegend sinnvolles Feature, dann wäre es bereits Standard. Für ein paar Euro im Jahr würde ich eher den Komfort wählen mich mit sowas nicht beschäftigen zu müssen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: stage
stage schrieb:
Wie soll so etwas bei einem PC funktionieren?
Inzwischen funktioniert das schon... nur sehe ich nicht, wo man großartig Strom sparen wird. Die dGPU ist im Idle i.d.R. auch sehr sparsam und wenn ich die iGPU nutze, dann wird sie sich ja auch etwas Strom gönnen. Möglicherweise einen Tick weniger...
Aber der ganze Aufwand? Wie viel Euro meint man damit zu bezahlen?

Angenommen ich sitze 365 Tage im Jahr 8 Stunden am PC für "Büroarbeit". Dann sind 5 Watt Ersparnis 14,6 kW/h über das Jahr gerechnet. Mal gerundet auf 15 kW/h kommen wir bei einem Durchschnittspreis von 30 Cent pro kW/h auf 4,50 Euro Ersparnis...
Selbst wenn wir 10 Watt annehmen sind es "nur" 9 Euro. Angenommen man arbeitet jeden Tag...

Nehmen wir jetzt die hochgerechneten 230 Arbeitstage im Jahr sind wir bei 9,2 (5 Watt) bzw. 18.4 (10 Watt) kW/h...

Bleiben 2,70 Euro (bei angenommen 5 Watt Ersparnis) bzw. 5,40 Euro (bei angenommen 10 Watt Ersparnis). So in etwa im Jahr. Und jedes mal muss man umschalten und hat ggfs. damit auch Probleme.
 
Einfach ein Ryzen 8000G nehmen, der ist weit sparsamer als ein 9900X und funktioniert besser mit der 9070 XT.
 
wie funktioniert ne pcie4 cpu mir ner verringerten anzahl lanes und weniger cache besser mit ner pcie5x16 gpu zusammen wie mit dem 9900x?
und dann greift einer nach dem 8500G weil billig hat pcie4x8 für die pcie5x16 grafikkarte und einmal pcie4x4 für die m.2 (was für die meisten total ok ist)
das die cpu sparsammer ist bezweifelt keiner, die wird auch ihren dienst tun aber wenn ich nicht nur ne gpu kaufe für ki kram oder mining und damit auch spielen will beschneide ich mich doch nicht unbedingt selber unnötig extra...
über sinn und unsinn jetzt hunderte euro auszugeben um 5€ an strom zu sparen diskutier ich aber auch gern ;)

erklär mir mal wie du den pc die nächsten ~120 Jahre jeden tag nutzt um 5€ pro jahr zu sparen...nein neue hardware gibts erst wenn die alte durch die einsparungen abbezahlt ist ;) auch viel erfolg wenn die in 100 Jahren kaputt geht unkostenfrei das selbe model in neu zu bekommen ;)
 
kachiri schrieb:
Inzwischen funktioniert das schon... nur sehe ich nicht, wo man großartig Strom sparen wird. Die dGPU ist im Idle i.d.R. auch sehr sparsam und wenn ich die iGPU nutze, dann wird sie sich ja auch etwas Strom gönnen. Möglicherweise einen Tick weniger...
Aber der ganze Aufwand? Wie viel Euro meint man damit zu bezahlen?

Angenommen ich sitze 365 Tage im Jahr 8 Stunden am PC für "Büroarbeit". Dann sind 5 Watt Ersparnis 14,6 kW/h über das Jahr gerechnet. Mal gerundet auf 15 kW/h kommen wir bei einem Durchschnittspreis von 30 Cent pro kW/h auf 4,50 Euro Ersparnis...
Selbst wenn wir 10 Watt annehmen sind es "nur" 9 Euro. Angenommen man arbeitet jeden Tag...

Nehmen wir jetzt die hochgerechneten 230 Arbeitstage im Jahr sind wir bei 9,2 (5 Watt) bzw. 18.4 (10 Watt) kW/h...

Bleiben 2,70 Euro (bei angenommen 5 Watt Ersparnis) bzw. 5,40 Euro (bei angenommen 10 Watt Ersparnis). So in etwa im Jahr. Und jedes mal muss man umschalten und hat ggfs. damit auch Probleme.
Bei mir wärens ~ 34kWh bei 0.125 Euro pro kWh macht dann 4.25€/Jahr.

Es geht mir nicht um das Geld. Es geht darum dreckigen Strom einzusparen. 34kWh sind c.a. 17.5kg Kohle im Jahr.
Ist natürlich auch nicht viel, aber Kleinvieh macht auch Mist.

-----

Anyway, ich denke ich werds einfach mal versuchen. Ich kann ja immer noch auf full-time dGPU wechseln.


FreshLemon schrieb:
Vergiss das vorhaben und benutz einfach die 9070XT für alles. Die Stromersparnis ist es nicht wert. Falls du bock auf tüfteln hast, kannst du einen Linux-Host aufsetzen, der mit der iGPU läuft und via GPU-Passthrough eine Windows-VM einrichten, die der 9070XT zugewiesen ist. Die VM startest dann nur bei Bedarf. Mit Windows als Host ist das meines Wissens nach nicht so einfach möglich, wenn überhaupt.
Gibt es einen signifikanten Performance Impact beim Gamen via Windows-VM?

Wo bin ich hier schrieb:
https://www.planet3dnow.de/cms/67740-sockel-am5-hybrid-graphics-ausprobiert/2/

Mehr Latenz, zusätzliches Gefrickel in Software/Firmware, Kompatibilitätsprobleme, zusätzliche Komplexität... wäre es ein überwiegend sinnvolles Feature, dann wäre es bereits Standard. Für ein paar Euro im Jahr würde ich eher den Komfort wählen mich mit sowas nicht beschäftigen zu müssen.
Ich denke mit der Latenz kann ich leben.

Da das Feature mittlerweilen direkt von WIndows unterstützt wird, ist es schon ziemlich (nah am) Standard, würd ich mal sagen...
Die Probleme die du ansprichst, kennst du die aus Erfahrung, Berichten, oder ist das eher eine Mutmassung?
Btw. der Artikel von Planet3dnow ist, was mich auf die Idee gebracht hat. Seit dem Artikel sind 2.5 Jahre vergangen...
 
BLJ schrieb:
Gibt es einen signifikanten Performance Impact beim Gamen via Windows-VM?
Nee, nur ein paar Prozent. Allerdings gehen Spiele mit Kernel Anticheat nicht wie z.B. Valorant. Die sind selbst so tief drin im System wie malware und erkennen die VM.
 
  • Gefällt mir
Reaktionen: BLJ
BLJ schrieb:
Bei mir wärens ~ 34kWh bei 0.125 Euro pro kWh macht dann 4.25€/Jahr.

Es geht mir nicht um das Geld. Es geht darum dreckigen Strom einzusparen. 34kWh sind c.a. 17.5kg Kohle im Jahr.
Ist natürlich auch nicht viel, aber Kleinvieh macht auch Mist.

Einfach 10 Stunden weniger spielen im Jahr und du hast viel mehr als das gespart!
 
Zurück
Oben