Kommentar Kommentar: Ich wünsche mir eine Innovation bei Optimus, Nvidia!

Jan schrieb:
Aber dann muss die dGPU das Bild über deren Framebuffer senden und das kann je nach Spiel heftig Leistung fressen.
Von wie viel elektrischer Leistung ist eigentlich die Rede? Weil performance Leistung gibt der verlinkte Test ja gerade bei der nVidia kaum Grund den Weg über die iGPU zu meiden. Zumal die neuen Intels auch eher schnellen PCIe Bus haben werden.
 
Mäxle87 schrieb:
Was ist das für ein Schwachsinn, noch nie von gehört und der Sinn sowie Einsatzzweck erschließt sich mir hier auch nicht. Für meinen Teil ist das einfach sinnlos.
Der Artikel beschreibt doch warum es sinnvoll ist. Was siehst du daran sinnlos an?
 
  • Gefällt mir
Reaktionen: Col. Jessep
Jahrelang war übrigens auch das normale Optimus ähnlich kaputt, erinnere mich noch mit Schaudern blass zurück...
https://www.notebookchat.com/index....HPSESSID=8n6ub4ibloe0f8780pjta02ni3#msg262248
(das ist mein Account bei NBC, aber über zehn Jahre her --- sorry für den Stil)
Ich antworte mal in umgekehrter Reihenfolge: Hab den aktuellen Treiber testweise nach genau der Prozedur installiert, Problem bleibt bestehen.
Aber was ist das Problem eigentlich?
In diversen unterschiedlichen, alltäglichen Szenarien gibt es einen Wechsel von iGPU->dGPU->iGPU (lässt sich gut über das Optimus-Statusicon, unter NvidiaSystemsteuerung; Desktop; GPU-Aktivitätssymbol im Infobereich anzeigen aktivierbar nachvollziehen)
Dieser Wechsel allein wäre ja schon unnütz und nervig; dazu kommt aber ein Mikro-Lag, zeitgleich zum elektrischen Klick beim Wechsel der GPUs.
Am leichtesten nachvollziehbar ist das, wenn man eine Diashow als Desktop-Background nutzt: Dann reicht einmal "nächster Desktophintergrund" anzuwählen und schon spürt man beides---und das passiert auch beim nichtmanuellen Wechsel.
Regelmäßig/ perfekt reproduzierbar tritt der Buglag auch beim VLC Player auf: Einmal öffnen, Lag. Schließen, nochmals Lag!

Aber auch ansonsten drängt er sich gerne dazwischen, sei es bei Videos, bei Diashows, in Office, ...
...selbst auf einem leeren Desktop (ohne Diashow) kann das Problem auftreten. Nur dort ist es halt viel schlechter reproduzierbar!


Ein Theorie noch aus dem verlinktem Thread: Der letzte Treiber ohne diesen Bug war noch einer, der auf WDDM 1.3 basierte. (genau wie der aktuelle Intel-Treiber es immer noch tut) Alle folgenden Nvidia-Treiber sind WDDM 2.0-Treiber---das kann eine zufällige Korrelation sein, ist aber unwahrscheinlich, denn das Problem tritt auf Windows-Versionen ohne WDDM 2.0 (also allen früheren Versionen...) nicht auf! Und mit Intel-WDDM 2.0-Treibern (ab Haswell verfügbar) anscheinend auch nicht...

Ah, und ja, um zur ersten Frage zu kommen: Ja, das betrifft mein P502. ;D
Und ich habe ehrlich gesagt weder Lust zurück zu Win 7 zu gehen, noch das nächste Jahr lang weiterhin den 350.12er zu nutzen. Und mögliche Nachbesitzer des Gerätes sicher auch nicht...
 
andi_sco schrieb:
Kannst du in Windows und in den Treibern festlegen. Funktioniert aber nicht überall und manchmal fängt das Spiel dann an, auf der iGPU zu laufen.
Also bei mir schaltet sich die dGPU hinzu, wenn es das System so entscheidet, egal was ich im Control Panel eingestellt habe.
 
Suspektan schrieb:
schaltet sich die dGPU hinzu
Ultimate Admiral: Dreadnought hat(te) da ein paar Probleme. Halo 6, meine ich, auch.
 
Mein Laptop mit Optimus hat mich wirklich nur genervt und wirklich gut gelaufen ist es nie. Natürlich können die miesen Treiber von nVidia da eine Rolle gespielt haben, aber auf noch einen Versuch lasse ich es nicht ankommen. Spätestens seit der B390 sehe ich auch ehrlich gesagt den Sinn nicht mehr in Laptops mit dGPU, zumindest abseits von DR-Kloppern, die eh nie lange mobil genutzt werden, wenn überhaupt.

Mir kommt in jedem Fall kein Laptop mehr mit dGPU ins Haus, dafür nur noch eins mit potenter iGPU. Mehr als genug Leistung um bei meinem pile of shame tausende Stunden Spaß mit höchsten Details zu haben, und für AAA-Titel habe ich eh den Rechner daheim.
 
Es war "nur" das einfache Optimus - aber das ändert an meinen schlechten Erfahrungen nichts. Sowohl Intel als auch nVidia haben sich mit der Treiberunterstützung absolut nicht mit Ruhm bekleckert. Wenn ich mit Produkt X eines Herstellers so viele Probleme hatte bin ich auch bei Produkt Y vorsichtig, gerade wenn es als Nachfolger ausgerufen wird.

Und damals war man eben noch auf eine dGPU angewiesen, wenn man unterwegs halbwegs aktuelle Titel zocken wollte. Da man das nicht mehr ist würde mir die Kaufentscheidung gegen ein Laptop mit zwei GPUs sehr leicht fallen. Auch weil mein 5500U seit bald 5 Jahren völlig problemlos läuft und eigentlich nur dadurch auffällt wie unauffällig er seinen Dienst verrichtet.
 
Ich wusste garnicht dass das so schlimm ist. Ich dachte die paar sek schwarzer Bildschirm beim eingang umschalten wären schlimm, aber beim spielstart mehrmals eingefrorenes Bild durch wechsel von igpu auf dgpu, zurück und noch mal zurück? Hell no, das würde mich arg stören. Jedes mal dieses 'omfg, ist da was abgeschmiert?' gefühl im hinterkopf stresst doch total.
Ob es so schwer wäre den zweiten Treiberstack im Hintergrund zu laden, zu initialisieren und dann möglichst atomar umzuschalten? Läuft eben für ein paar sekunden beides parallel, aber der output der im start befindlichen gpu muss erstmal vom display ferngehalten oder ignoriert werden.
Der Overhead in sachen Speicher und CPU last wäre ggf. auch ungünstig für low end laptops, aber wenn das sowieso eher ladebildschirme, introvideos und menüs betrifft sollte das ok sein. Potentiell kurzes ruckeln ist besser als einfrieren.

jotecklen schrieb:
Eigentlich wärs doch am besten, wenn Nvidia die Stromsparfunktion in ihre eigenen Chips einbauen könnte. Also anstatt ständig zwischen der Intel und der Nvidia GPU umzuschalten stattdessen den Großteil der dGPU schlafen zu legen. Also so wie man es bei den CPUs auch macht. Keine Ahnung, was da die technischen Hürden sind. Aber das müsste doch irgendwie gehen.
afaik ist der overhead der gpu zu groß um wirklich an eine igpu ran zu kommen. Einmal frisst der dedizierte vram evtl mehr strom als der system-ram, ich würde so 5-10 W minimum vermuten, bei hoch getaktetem vram > 8 gb auch mehr. Zum anderen kommt der ganze elektrikteil zur versorgung dazu. Selbst wenn die dgpu idle ist muss nun mal die spannungsversorgung arbeiten. Die kann man teilabschalten aber dann dauert das afaik ne halbe ewigkeit aus chipsicht bis das wieder alles da ist. Mehrere ms wartezeit gibt dann schnell mikroruckler während die gpu darauf wartet dass alle phasen der spannungswandler online kommen, kondensatoren voll sind und die spannung stabil verfügbar ist.
Die GPU in teilen komplett abschalten, womöglich auch den vram würde vermutlich schnell sehr kompliziert werden auf softwareseite. Da müsste man jemanden fragen der sich damit auskennt, aber ich kann mir vorstellen dass man da evtl auch dinge neu kompilieren müssen da codepfade für die hardware optimiert wurden und eben davon ausgegangen wurde dass bestimmte latenzen und ausführungseinheiten verfügbar sind. Bei CPUs kann man zwar die anzahl dynamisch skalieren, aber die architektur, die topologie wie x kerne in y CCDs auf z sockeln und ggf. sogar einige annahmen über den RAM könnten im code optimiert worden sein. Ändert man das stimmen plötzlich laufzeiten nicht mehr, es entstehen wartezeiten und alles wird potentiell spürbar langsamer. Wie spiele die auf 2 CCDs langsamer laufen als auf einem.

Was ich mir eher vorstellen könnte ist dass man eine GPU in mehreren aktivierungsstufen vorsieht. Ein normaler Modus und z.b. einen halbierten wo nur der halbe chip und der halbe vram aktiv ist für anspruchslosere spiele. Aber mit explizitem wechsel wie mit einer igpu, dem aufwand, dem risiko dass da was schief geht und dann leute die schlechte performance mit der 'großen' gpu verbinden ist das wohl auch nicht allzu verlockend für die hersteller.
 
  • Gefällt mir
Reaktionen: jotecklen
1.png


@Jan wenn es in windows zu mehrsekündigen lags kommt, wenn zwischen programmen gewechselt wird, die abwechselnd igpu und dgpu nutzen, dann nur, weil "Automatische Auswahl" eingestellt ist.

Belasse es doch einfach auf Optimus, dann läuft immer die igpu und programme die dgpu brauchen, nutzen sie instant ohne unterbrechung (die dGpu schaltet sich auch dann noch komplett ab wenn sie nicht gebraucht wird)
WENN man dann mal etwas zockt und die dGPu direkt am laptop screen haben möchte, dann stellt man halt manuell auf "Nur NVIDIA GPU" um. Dann macht es einmal diese 5sek lag mit unterbrechung, alles läuft über nvidia gpu und das wars. Nach dem Spielen wieder zurück auf Optimus stellen und alle programme in windows egal ob igpu oder dgpu gehen lagfrei.
Ich bin ehrlich gesagt entsetzt und verwundert gleichermaßen, dass das anscheinend die wenigsten leute realisiert haben und dementsprechend nutzen.

Eigtl ist advanced optimus so schon ziemlich genial.


Verbesserungsbedarf seh ich dagegen eher an einer ganz anderen Stelle: Den Anschlüssen HDMI/USB-C DP und welche GPU diese jeweils verwenden.

z.B.: Über HDMI nutzt der angeschlossene monitor immer die nvidia gpu als basis und das laptop-display zwingend die igpu.
Will man jetzt aber auf dem laptop screen mit HDR und nvidia video verbesserungen was zocken und auf dem externen hdmi monitor nur ein Video schauen, funktioniert das nur mit abstrichen, oder spiele (DooM TDA) erkennen HDR nicht im laptop screen, weil die igpu dran hängt.
Workaround ist dann den laptop vom HYBRID modus komplett auf dgpu/nvidia umzustellen (im uefi oder laptop-control-center mit anschl. reboot).
Da dann nur noch ausschließlich die dGPU genutzt wird, läuft dann sowohl der laptop screen über nvidia als auch der HDMI anschluss. (Erinnerung: bei "Nur NVIDIA GPU" auswahl im nvidia treiber, wird bei HDMI anschluss automatisch zwingend der laptop screen an die igpu angeschlossen)

Um den Laptop screen über die nvidia dgpu laufen zu lassen und den externen monitor aber über die igpu, ist es zwingend notwendig diesen mit USB-C DP anzuschließen, sonst hat man keine Chance.

HIER würde ich mir noch eine verbesserung wünschen, die die Auswahl und Kombination von Displays und GPUs wesentlich erleichtert oder gar erst ermöglicht!

PS: Ist klar mit altem nVidia optimus alleine geht das nicht. Ich nutze aktuell einen Lenovo Legion 5i Gen10 mit RTX 5070 Ti, mit MUX+advanced optimus.
 
Zuletzt bearbeitet:
Cirael schrieb:
Belasse es doch einfach auf Optimus, dann läuft immer die igpu und programme die dgpu brauchen, nutzen sie instant ohne unterbrechung (die dGpu schaltet sich auch dann noch komplett ab wenn sie nicht gebraucht wird)
Das ist Optimus. Mir geht es ja um Advanced Optimus (siehe Unterschiede im Artikel). Dabei wird auch das Display auf die aktive GPU umgelegt. Das spart Strom, wenn die iGPU läuft (denn die dGPU kann dann schlafen -> wie bei Optimus), erlaubt der dGPU aber auch, das Signal direkt an das Display zu liefern, wenn sie aktiv ist (das geht bei Optimus nicht!).
 
  • Gefällt mir
Reaktionen: Hellyeah
@Jan Ich weiß doch, aber mal anders gefragt: ist es dir wichtiger dass das display an der aktiven GPU anliegt und dafür bei Anwendungswechsel (und igpu-dgpu wechsel) laufend 5sek lags kommen?

Oder ist es vielleicht zu vernachlässigen an welcher GPU das display anliegt, wenn es lediglich um die verwendung von windows geht, sprich browsen, office, videos schauen, etc.

Für mich in der Praxis ist die antwort klar: Beim zocken will die die nvidia dpu direkt am laptop-display hängen haben. Beim rest der Windows nutzung kann die igpu ran mit der nvidia-dgpu lediglich als number-crunsher die sich bei bedarf ein- und wieder aus schaltet.

Unser disput hier geht eigtl nur darum ob man windows automatisch die nvidia gpu bei bedarf an das display lassen sollte (mit laufenden 5sek lags), oder wie ich meine, nur manuell wenn man es für sinnvoll hält.
 
Cirael schrieb:
@Jan Ich weiß doch, aber mal anders gefragt: ist es dir wichtiger dass das display an der aktiven GPU anliegt und dafür bei Anwendungswechsel (und igpu-dgpu wechsel) laufend 5sek lags kommen?
Ich finde es gut und richtig, dass das Display immer an der aktiven GPU hängt, aber ich will keine 5-Sekunden-Hänger mehr sehen nach sechs Jahren Advanced Optimus. Das ist der ganze Punkt. :)
 
Dem Punkt stimme ich natürlich zu, es wäre durchaus ein nice-to-have.

Mein punkt ist nur: stört mich in der paxis bei geschilderter nutzung nicht soviel wie die fehlende flexibilität beim anschließen von ext. displays und deren gpu-auswahl. daher würde ich mir eher in die richtung verbesserung wünschen - aber wenn man beides haben könnte... hey ich bin dabei.
 
Bei meinem MSI GE75-8SF kann ich über ein externes Display nicht mal das BIOS anzeigen lassen. Schon deshalb würde ich Advanced Optimus begrüßen :-)
 
Zurück
Oben