Optimus umgehen bei externer Ausgabe Ideapad Gaming 3

Es gibt bei Laptops in der Regel keinen dedizierten Anschluss nur für iGPU und dGPU. Du schließt einen Monitor an und sagst im Nvidia-Treiber welches Programm welche GPU verwenden soll. Genauso wie beim internen Bildschirm.
 
  • Gefällt mir
Reaktionen: Tammy
Ich habe nicht Alles gelesen, aber soweit ich gesehen habe hat dieser Laptop keinen MUX Switch, d.h. alle Signale gehen durch die iGPU.
 
  • Gefällt mir
Reaktionen: Tammy
Aber gerade weil das Notebook keinen MUX Switch hat, sollte doch einer der beiden Ausgänge direkt an der GPU sein, so mein Gedanke.

Dass die Grafik auf dem internen Display nicht umschaltbar ist liegt schlicht daran, dass hier nur Optimus, anstelle von Advanced Optimus, umgesetzt wurde.

Ohne MUX-Switch können Sie Optimus nur umgehen, indem Sie einen externen Monitor an Ihr Notebook anschließen. Dabei muss der Bildschirmausgang direkt an die diskrete Grafik angeschlossen sein und nicht an die integrierte Grafik von Intel oder AMD.
 
Tammy schrieb:
Dass die Grafik auf dem internen Display nicht umschaltbar ist liegt schlicht daran, dass hier nur Optimus, anstelle von Advanced Optimus, umgesetzt wurde.
Das kann ich mir nicht vorstellen. Dann wäre ja die RTX im mobilen Betrieb gar nicht nutzbar.
 
Doch natürlich, Optimus erlaubt die Umschaltung zwischen RTX über die IGPU und die IGPU selbst, aber eben nicht ohne Optimus und genau diese Technologie macht einem die fps kaputt.
 
Und im Nivida-Treiber gibt es keine Möglichkeit eine Anwendung direkt der RTX zuzuordnen?
So kenne ich das von früher (allerdings Acer-Laptop).
 
Ich kann natürlich die RTX bevorzugen, sie wird dennoch bei der Ausgabe über das interne Display durch die IGPU durchgeschleift, darum wird auch nur der Ausgang ohne Optimus funktionieren, welcher direkt physisch an die RTX angebunden ist :)
 
Ich vermute mal hdmi ist direkt an die rtx angeschlossen, zumindest ist das bei meinem HP victus 16 (rtx3050ti) so. steht auch so im Handbuch. teilweise hängen die externen anschlüsse aber auch an der igpu und die dgpu wird immer durchgeschleift.... Am besten einfach mal ausprobieren. hdmi vs usbc/dp vs interner monitor. den anschuss der direkt an der dgpu hängt erkennst du daran, das du mehr leistung als mit optimus hast.
 
  • Gefällt mir
Reaktionen: Tammy
Danke das ist natürlich eine Möglichkeit, ich habe nur leider keinen DP zu USB-C hier, so dass ich beide miteinander vergleichen könnte, daher dachte ich, vielleicht hat jemand auch ein Gaming 3 und das mal getestet :)
 
Tammy schrieb:
Dass die Grafik auf dem internen Display nicht umschaltbar ist liegt schlicht daran, dass hier nur Optimus, anstelle von Advanced Optimus, umgesetzt wurde.
Du hängst viel zu sehr an Marketing Begriffen.


Der Hersteller des Notebooks entscheidet an welche GPU er welchen Monitor, welchen Ausgang hängt. Er hat dabei freie Wahl. Darüber hinaus kann er Muxe verbauen, um dem Nutzer die Wahl zu lassen. Diese könnten im BIOS, in Custom Anwendungen oder vollautomatisch umgeschaltet werden. Advanced Optimus ist Marketing von Nvidia für automatische Umschaltung durch den Nvidia Treiber für das integrierte Display das war es.

Mux war früher von riesiger Bedeutung, weil die iGPU einfach nicht die selben Standards, Features und Geschwindigkeiten an den Ausgängen konnte wie die dGPU. Das ist aber kein Problem mehr. Deine iGPU kann quasi die selben Monitore auf die gleiche Weise ansteuern, wie die dGPU. Windows kümmert sich darum das Bild auf die passende GPU für die Ausgabe zu bekommen und das Rendern von der Ausgabe zu entkoppeln. Bei moderner Hardware macht das kaum noch einen Unterschied, also sparen Hersteller mehr Geld und lassen dir einfach keine Wahl.


Für Nvidia GPUs, kannst du im Nvidia Control Panel auf der Physx Seite alle Anschlüsse sehen, die die Nvidia GPU hat. Also schau einfach ob du überhaupt Ausgänge von der Nvidia GPU hast und wenn ja, was für welche DP, DP (USB-C) oder HDMI. Wenn da nichts steht, hast du das eben nicht.
GPU-Z sollte die zB auch auf der Advanced Seite auflisten.
 
  • Gefällt mir
Reaktionen: ILoveShooter132
Gerade heute ist ein MUX Switch bei einem Gamingnotebook unerlässlich. Es geht immer noch eine Menge Performance verloren, sobald das Signal der dGPU noch den Umweg über die iGPU gehen muss. Wenn kein MUX Switch verbaut ist, kann man die Grafikkarten auch nicht komplett ausschalten. Ich habe es selber bei meinem GE77 12UHS getestet und es ist im dGPU Mode um einiges schneller als im MSHybrid Mode. Ein kleiner, aber auch nicht unwichtiger Grund für einen MUX Switch ist auch noch G-Sync. Dies kann nicht funktionieren, sofern da noch eine iGPU zwischen dem Bildsignal der dGPU und dem Display liegt. Das ist auch der Grund, warum man für einen Wechsel des Modes immer rebooten muss, da das Gerät einmal aus und wieder eingeschaltet werden muss, wenn der MUX Switch aktiviert wird. Danach ist die iGPU denn auch komplett deaktiviert und die komplette Displayansteuerung läuft über die dGPU, was man denn auch entsprechend an den Einstellmöglichkeiten der Nvidia Systemsteuerung sieht.

https://www.msi.com/blog/msi-discrete-graphics-mode-explained
https://www.tuxedocomputers.com/de/Was-ist-ein-MUX-Switch-und-wozu-ist-er-gut-.tuxedo

Aber, die meisten vergessen, das es sich dabei immer um das interne Display dreht. Die externen Ausgänge werden i.d.R. von der dGPU angesteuert.

So sieht es z.B. bei dem GE77 12UHS aus, wenn das im MSHybrid Mode (Optimus) ist. Dort wird z.B. der Thunderbolt im dGPU Mode nicht mit einem Video Signal angesteuert.

1741502853683.png

Und so im dGPU Mode:

1741503021958.png

@Tammy schaue dort einfach mal nach, so wie es @Ray519 schon gesagt hat. Dort siehst du denn, welcher Anschluss von welcher GPU angesteuert wird.
 
@Ray519
Vielen Dank für deine ausführliche Antwort, dennoch frisst die IGPU beim Durchschleifen de fakto Leistung, Marketing hin oder her, wer einen externen Monitor nutzen mag, der muss sich ja informieren.

@iTzZent
Vielen lieben Dank, ich schaue mir das gleich mal an :)
 
iTzZent schrieb:
Es geht immer noch eine Menge Performance verloren,
Eine Menge? Je schneller die PCIe Anbindung desto weniger. Größer Verlust sind Features die die GPUs nur für Ausgänge machen wollen (RTX HDR zB).
iTzZent schrieb:
Wenn kein MUX Switch verbaut ist, kann man die Grafikkarten auch nicht komplett ausschalten.
???

Die GPU die die Ausgabe macht, kann man nicht ausschalten. Deshalb ist es wesentlich effizienter alles an die iGPU zu hängen, weil wenn die nicht rechnen muss braucht die quasi 0 Strom. Während eine dGPU wenn sie an ist, immer Strom braucht, in einer Dimension, die die Idle Zeit stark beeinflussen kann.

Wenn also alles an der iGPU hängt, kann man die dGPU komplett abschalten, wenn sie gerade nichts rendert. Warum? Weil die iGPU den Hauptspeicher nutzt, der eh an sein muss wenn das System läuft, während die dGPU ihren eigenen, auf Durchsatz getrimmten VRAM hat.

Du hast hier, wenn du quasi nur die dGPU nutzt, hybrid einen minimalen mehrverbrauch durch die iGPU, aber viel mehr Ersparnis im Idle. Das ist etwas was die meisten non-Gaming/Workstatation Notebooks aktiv wollen

iTzZent schrieb:
Ein kleiner, aber auch nicht unwichtiger Grund für einen MUX Switch ist auch noch G-Sync
Und wieder: da geht es dir hauptsächlich um die Marke G-Sync. VRR können Intel iGPUs und AMD iGPUs schon seit vielen Jahren genauso wie die dGPUs.

Ich habe zB meinen G-Sync Ultimate Monitor an meiner Intel iGPU. Einziges Limit: Intel möchte nicht unter 20 Hz gehen, während Nvidia bis 1 Hz runter geht. Dafür hat Intel Optionen für freiwilliges Framereplicating, für ein besseres Gefühl, dass Nvidia nicht hat. Sieht ansonsten gleich aus, weil mein Monitor alles macht, auch die offenen DP und HDMI VRR Standards kann, wofür man keine Nvidia GPU braucht. Heißt nur im Treiber nicht mehr "G-Sync" und man stellt es auf der Ausgebenenden GPU ein.

Nochmal: früher hatten wir Mux switche weil es elementar war. Die iGPU könnte einfach nicht alles. Von VRR bis hinzu hochauflösenden high-refresh Rate Displays, oder mehrere Monitore, oder auch nur Google Maps flüssig rendern. All das ist schon länger kein Problem mehr für iGPUs. Jetzt ist ein Mux nur noch da, um das letzte bisschen Performance herauszuholen. Und entsprechend nicht notwendig in jedem Gerät. Wenn man trotzdem einen haben will, muss man halt danach suchen.

iTzZent schrieb:
Das ist auch der Grund, warum man für einen Wechsel des Modes immer rebooten muss,

Noch mehr falche Infos. Warum denn? Nein. Ein Mux Switch schaltet zwischen 2 Quellen um. Genau wie das am Desktop zB mit einem DP Switch gemacht wird. Die kann man locker so verbauen, dass das wie ein Ausstecken des Monitors an der einen GPU und Einstecken an der anderen GPU gesehen wird. Das ist halt mehr Arbeit. Das einfachste für die Hersteller ist das beim Boot umzusetzen, dann müssen die GPUs jeweils gar nichts von wissen. Das ist aber mittlerweile nicht mehr nötig. Gibt ein paar Notebooks die das aus einer App heraus können. Da ist beim Booten umschalten mehr die Spaarbrötchen Variante mittlerweile.

Und bei deinem Notebook wird das dann noch genutzt um die iGPU komplett abzuschalten (was eigentlich schwachsinnig ist). Damit die Software gar nicht aus versehen oder Nutzerkonfiguration die iGPU nutzen kann. Aber wie gesagt, das braucht man kein bisschen. Und eine idlende iGPU braucht 0W. Aber stünde dann zB für Videobeschleunigugng bereit. Wo deine Intel iGPU zB 8K60 AV1 Video absipielen kann mit 0.3W, während die Nvidia dGPU dafür 20W oder so braucht und eventuell trotzdem noch ruckelt, weil die 30er Reihe darin noch schlecht war...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ILoveShooter132
Mit dem MUX Switch entscheidet man selber, welche GPU aktiv ist und welche nicht. Sicherlich ist es effizienter, was den Stromverbrauch angeht, Optimus zu nutzen. Aber nicht was die reine Leistung angeht, da blockiert die iGPU die dGPU nun mal etwas. Genau aus diesem Grund gibt es schließlich den MUX Switch. Schaue dir einfach die Links an und gut ist.

Der Anwender kann das jeweils gewünschte Verhalten in den UEFI-Einstellungen unter Advanced | Switchable Graphics festlegen. Dadurch lassen sich, je nach Spiel im Durchschnitt um die 10 % höhere Bildwiederholfrequenzen erzielen. Allerdings erhöht sich auch der Stromverbrauch, und das nicht nur bei Gaming, denn die stromhungrigere Grafikkarte ist non-stop aktiv, auch wenn das System nichts zu tun hat. Zu den positiven Aspekten zählt, dass NVIDIA G-Sync verwendet werden kann, sofern das Display diese Technik unterstützt.

Es geht mir nicht um den Stromverbrauch bei einem Gamingnotebook. Hast du schonmal ein Gerät mit MUX Switch verwendet ? Sieht mir nämlich nicht danach aus.

Und was Nvidia G-Sync angeht, das funktioniert nunmal ausschliesslich mit G-Sync zertifizierter Hardware. Wenn das Display also G-Sync zertifiziert ist, das Gerät aber im Optimus Modus läuft, kann das Gerät kein G-Sync wiedergeben. Schaltet man die Intel GPU allerdings via MUX Switch aus, dann ist ausschliesslich die Nvidia GPU aktiv und G-Sync wird entsprechend aktiviert. Deswegen muss auch rebootet werden, da die Umschaltung sonst nicht funktioniert.

Damit wir nicht weiter um den heißen Brei herumreden, siehe hier: https://www.computerbase.de/artikel...k-test.79844/#abschnitt_was_ist_ein_muxswitch


Viele Anwender werden wiederum schon einmal davon gehört haben. Zumeist geistern allerdings eher vage Informationen von Leistungsunterschieden durch das Netz, von 5 bis 10 Prozent ist oftmals die Rede. Erst kürzlich hat wiederum Nvidia mit größeren Leistungszuwächsen für Advanced Optimus bis hinauf zu 27 Prozent und mehr geworben und schon im Januar wurde der Redaktion bei internen Tests klar, dass die Schere in Extremfällen noch viel weiter auseinandergeht.

Wer nach dem Zocken an der Steckdose mit dem Notebook in die Vorlesung geht, ohne den Schalter wieder umzulegen, darf sich dann allerdings nicht über deutlich gesunkene Akkulaufzeiten wundern. Im Alltag nervig ist, dass das Umschalten einen Neustart voraussetzt. On-the-fly gelingt der Wechsel nicht.

Noch einmal zum Abschluss: Dass die iGPU statt die dGPU rendert, war hier nicht Thema. Es geht darum, dass die dGPU rendert aber durch das Kopieren des gerenderten Bildes über PCIe in den Framebuffer der iGPU, die es dann ausgibt, ausgebremst wird.
 
  • Gefällt mir
Reaktionen: Tammy
@iTzZent

So sieht es jetzt bei mir via HDMI aus, also ist die 4050 direkt angeschlossen, oder?!
Allerdings bietet mir das Panel kein g-sync an, am Desktop mit meiner 2060 allerdings schon.

Danke auch für deine Mühen, ich hätte eine so umfangreiche Antwort gar nicht gebraucht, die Fehlinfos von Ray519, mit Verlaub, habe ich überlesen.


nvidia.png
 
Für G-Sync benötigt man zertifizierte Hardware. Wenn die RTX4050 nicht zertifiziert ist (das ist denn eine andere Hardware ID), dann gibt es kein G-Sync, auch wenn dein Panel G-Sync zertifiziert. Schönes Beispiel ist da z.B. damals das GT72 6QE gewesen, das gibt es einmal mit G-Sync und ohne. Beide mal mit GTX980M, aber halt mal mit G-Sync (Device ID 1617) und einmal ohne (Device ID 13D7).

Und ja, der HDMI läuft bei dir direkt über die Nvidia GPU.
 
  • Gefällt mir
Reaktionen: Tammy
iTzZent schrieb:
Mit dem MUX Switch entscheidet man selber, welche GPU aktiv ist und welche nicht.
Nein. Du entscheidest an welche GPU ein Anschluss geht. Welche GPU von Software genutzt ist oder wie weit sie abgeschaltet werden kann ist unabhängig davon und von Software geregelt.
iTzZent schrieb:
Und was Nvidia G-Sync angeht, das funktioniert nunmal ausschliesslich mit G-Sync zertifizierter Hardware.
Mensch. Ich versuche dir die Dinge zu erklären. G-Sync ist Marketing. Für eine von 3 VRR Protokollen mit Nvidia GPU zusammen mit einem Monitor. Je nach Marketinglevel erfordert es auch noch eine Zertifizierung vom Monitor. Oder auch nicht. 2 von den 3 VRR Protokollen sind Herstelleragnostisch und werden auch von nicht-Nvidia GPUs unterstützt. Es gibt kein G-Sync Logo vom GPU Treiber, aber geht dennoch genauso. Das muss man halt verstehen. Willst du scheinbar nicht.
iTzZent schrieb:
kann das Gerät kein G-Sync wiedergeben.
Es gibt kein "G-Sync wiedergeben". Alle Notebookdisplays nutzten schon immer ausschließlich Vesa Adaptive Sync. Das Display kann Adaptive Sync und die GPU muss es auch können. Intel kann Adaptive Sync ab 11th gen iGPUs. AMD seit 4000er oder so. Auch die Nvidia Treiber machen nichts anderes als Adaptive Sync mit diesem Display zu nutzen. Sie vermarkten es nur nicht unter der eigentlichen Technik, sondern unter der G-Sync Marke, damit Leute wie du denken, sie sind an Nvidia geknebelt und man KANN das selbe Level an Funktionialität nicht auch ohne Nvidia anbieten.

iTzZent schrieb:
Schaltet man die Intel GPU allerdings via MUX Switch aus, dann ist ausschliesslich die Nvidia GPU aktiv und G-Sync wird entsprechend aktiviert.
Zum 3. Mal. Mux hat nichts damit zu tun dass die iGPU verschwindet. Dein BIOS schaltet einfach 2 Dinge mit dem selben Schalter um. Und Nvidia Treiber schalten VRR immer automatisch an, wenn ein Nvidia zertifizierter VRR Monitor an der Nvidia GPU hängt. Das geht auch wenn 3 Monitore an der iGPU hängen und einer mit Adaptive Sync an der Nvidia GPU. Und die Intel Treiber haben auch einen Adaptive Sync Schalter wo man das genauso anschalten kann (für Monitore mit DP / Adaptive Sync).
iTzZent schrieb:
Deswegen muss auch rebootet werden, da die Umschaltung sonst nicht funktioniert.
Auch das hatte ich schon erwähnt. Nein. Dein Notebookhersteller hat das so genaut. Weil es für sie einfach ist. Und weil sie dir nur einen Schalter bieten wollten, der die gesamte iGPU abschaltet (dann sollte natürlich auch gar nichts mehr dran hängen, weil es wäre ja tot). Und dieses iGPU vollständig abschalten, wie auf einem Desktop Mainboard das keine iGPU vorsieht, geht nur vom BIOS aus und für einen neuen Start.

Alles andere könnte man auch im Laufen machen. Und das im BIOS umzuschalten ist auch einfacher zu entwickeln, weil BIOS hat das Gerät ja eh. Einfach eine neue Option einzubauen. Während wenn man den Mux aus Windows heraus steuern will, ist das wesentlich mehr Arbeit, weil man dann eben Software und Treiber braucht, die mit den passenden Controllern aus Windows heraus reden. Und man hat eben viel mehr Fälle zu testen. Aber es gab schon genügend Geräte zB von Asus die aus Armoury Crate heraus den Mux kontrollieren. Auch gibt es zB Advanced Optimus und das Äquivalent von AMD, was das vollautomatisch ohne Neustart umschaltet.
iTzZent schrieb:
Wenn die RTX4050 nicht zertifiziert ist (das ist denn eine andere Hardware ID)
Das wäre mir neu, dass es Nvidia GPUs gibt die das verweigern.
Tammy schrieb:
Allerdings bietet mir das Panel kein g-sync an, am Desktop mit meiner 2060 allerdings schon.
Via HDMI oder DP angeschlossen? Welcher exakte Monitor?

Deine Nvidia GPU kann DP Adaptive Sync, G-Sync proprietär (nicht mehr genutzt von aktuellen Displays und nur via DP) und HDMI VRR. Wenn der Monitor also kein HDMI VRR kann (sondern nur FreeSync HDMI proprietär), das macht das absolut Sinn, dass das nicht geht, weil du eine DP Verbindung zur Nvidia GPU bräuchtest. Das würde auch so passen. Weil die RTX 2060 sollte auch kein HDMI VRR können, das gab es erst ab RTX 30.

Auf der anderen Seite, hat eine RTX 4050 definitiv HDMI 2.1 und kann auch HDMI FRL Geschwindigkeiten, während Lenovo nur "HDMI 2.0" beschreibt. Also möglich das Lenovo den Port darüber hinaus noch gedrosselt / nicht vollständig angeschlossen hat.

Wenn es dir um VRR geht und der Monitor von den nicht-proprietären protokollen nur Adaptive Sync kann, müsstest du ihn per DP an die iGPU stecken und dann im Intel Graphics Command Center Adaptive Sync anschalten um das zu nutzen. Dann musst du entscheiden was dir lieber ist, die leicht höhere Performance direkt an der dGPU oder Adaptive Sync.

Edit: ich bin irgendwie wieder auf Intel gekommen. Dein Notebook hat ja eine AMD iGPU. Also nicht Intel Treiber sondern AMD. Ändert am Prinzip aber nichts. Tatsächlich, wenn der HDMI Ausgang an die iGPU gehen würde, könntest du einfach FreeSync HDMI nutzen, weil die kann das.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ILoveShooter132
Schön das dir das neu ist, das nicht alle Nvidia Karten G-Sync unterstützen im Notebookbereich. Hier mal ein Beispiel

GTX980M aus einem GT72 2QE/6QE, ohne G-Sync. Egal ob ein G-Sync zertifiziertes Panel im Notebook ist oder nicht, es wird nie mit der Karte G-Sync funktionieren.

1741538479412.png

GTX980M auch aus einem GT72 2QE/6QE, mit G-Sync. Zu erkennen an der Device ID, und auch nur an der. Diese Karte funktioniert z.B. nicht ohne weiteres in einem Optimus Gerät, da sie Optimus einfach nicht kennt (z.b. in einem GT70 2Qx).

1741539048641.png

Das war damals die Zeit von MXM Karten, da konnte man alles wild hin und her tauschen. Daher weiss ich genau, das es an der Hardware liegt, ob G-Sync oder nicht und das es kein Marketing Gag ist. Anders rum gilt übrigens das gleiche, wenn man eine G-Sync kompatible Grafikkarte verbaut hat, aber kein entsprechendes Panel, dann gibt es auch kein G-Sync.
Da G-Sync mittlerweile bei den hochfrequenten Panels kaum noch eine Rolle spielt, gibt es auch kaum noch G-Sync auf den internen Displays. Ob ein Panel G-Sync kompatibel ist, sieht man sehr gut bei Panelook.com

Hier z.B. mein aktuelles Panel (GE77HX 12UHS), ohne G-Sync https://www.panelook.com/B173ZAN06.1_AUO_17.3_LCM_overview_51533.html
Und hier ein aktuelles Panel aus einem MSI GE78 https://www.panelook.com/B170QAN01.2_AUO_17.0_LCM_overview_59950.html das hat z.B. G-Sync.


Und ich rede ausschließlich von dem internen Display !

Aber wir sind hier schon sehr Offtopic. Fakt ist, im reinen dGPU Mode hat ein Notebook die beste Gamingleistung.
 
iTzZent schrieb:
GTX980M aus einem GT72 2QE/6QE, ohne G-Sync. Egal ob ein G-Sync zertifiziertes Panel im Notebook ist oder nicht,
Hach... Maxwell war vor Adaptive Sync Support, die konnten allgemein nur G-Sync proprietär. Und wie ich bereits versucht hatte zu erklären, Notebook Displays nutzen Adaptive Sync. Es ist also nicht das die Karte das blockiert. DIese GPU ist schlicht zu alt um es überhaupt zu unterstützen, in jedweder Form. Nur die alten / klassischen Monitore mit vollen G-Sync Modul gehen an Maxwell GPUs. Erst mit Pascal / GTX 1000 kam Adaptive Sync Support großflächig an.
iTzZent schrieb:
wenn man eine G-Sync kompatible Grafikkarte verbaut hat
Du hängst immer noch am Marketing. G-Sync ist Marketing und wird mittlerweile zusammen mit 3 verschiedenen VRR Protokollen genutzt. Genauso wie FreeSync mit 3 verschiedenen Protokollen als Marketing genutzt wird. Und dann bringen beide noch verschiedene Mindestanforderungen für Monitore und Zertifizierungen für Mindestqualität vom VRR mit passenden GPUs an.

Zu sagen eine "G-Sync kompatible GPU" ist wertlos, man muss schon die ganzen technischen Details dazu kennen. Sonst gehts eben im Zweifel nicht. Genau wie bei so vielem anderen. Ein moderner G-Sync zertifizierter LG TV geht zB auch nur an passenden GPUs ab RTX 30 mit vollem Umfang und VRR. Weil die nutzen HDMI VRR und FreeSync HDMI. Und Nvidia kann nur HDMI VRR ab 30er Serie.
 
Zuletzt bearbeitet:
Zurück
Oben