Dual-Monitor-Setup - mögliche Probleme bei Mischbetrieb?

WulfmanGER

Commander
Registriert
Juli 2005
Beiträge
2.225
Hallo in die Runde,

ich möchte mir Zeitnah einen neuen Monitor holen und später irgendwann noch einen zweiten (neuen; aktuell hab ich einen 22" 1680x1050@60hz HDMI). Das ist jetzt aber keine Kaufberatungsanfrage - eher eine Grundlagenberatung ;)

CPU wird ein 7800X3D sein und GPU eine 7900XT. Aufgrund Abstand zum Monitor geht nicht mehr als 27" - als Auflösung wollte ich WQHD nutzen - dazu HDR, VRR mit bis zu 144hz.
Meine Idee war: Gamingmonitor+Officemonitor. Optik des Monitor-Setups auf dem Schreibtisch ist mir relativ ;)

Ich hatte aber gelesen (sehr alte Beiträge) das man Desktop wie Gaming auf beiden Monitoren (die parallel laufen werden) am besten auf gleicher Bildwiederholfrequez laufen lässt. Gespielt wird "links" mit vermutlich VRR144hz - im Vollbildfenster. Wenn jetzt der Office-Monitor auf 60hz läuft, soll das wohl problematisch werden? Wie sieht es aus wenn ich den Office von der CPU befeuern lasse (also am Board anschließe, während der Gaming an der GPU hängt) - oder macht das keinen Unterschied? Die CPU kann ja Grafik.

Das ganze ist natürlich auch eine kosten frage. Ich brauch eigentlich keine zwei Gaming-Monitore die mir VRR und 144hz bieten. Der Office-Monitor (ob aktueller oder später ein zweiter, Office 27"/60hz) wird parallel zum Gaming laufen - YT, Twitch, Browser, Excel-for-Games usw. Spiele ich nicht, wird der Gaming-Monitore der Hauptmonitor für "Office" sein.

Ein Thema bei Non-VRR direkt an der GPU ist ja auch der Stromverbrauch wie der letzte Treibertest ja gezeigt hat. Insgesamt würde ich hier schon gerne das ein oder andere Watt sparen.

Hab ich mit so einem gemischten Setup Probleme beim spielen zu erwarten? Andere Probleme? Wie gesagt: Wir sind hier mit komplett mit AMD unterwegs und Windows 11.

Grüße

PS: aktuell hab ich 1680x1050@60hz und 1280x1024@60hz ... Gemischte Auflösungen klappt auch bei spielen gut.
 
Unterschiedliche Bildwiederholfrequenzen sind grundsätzlich erstmal kein Problem.

Trotzdem macht Multimonitoring einfach lächerlich viele Probleme 😅.

Und nur weil etwas grundsätzlich funktionieren sollte, heißt das nicht, dass es das auch tut.
 
Schinken42 schrieb:
Trotzdem macht Multimonitoring einfach lächerlich viele Probleme 😅.
Meine letzen drei AMD Karten liefen im Mischbetrieb perfekt. HD 6870, 6950 und dann eine r9 390.

Die Nvidia 3070 macht regelmäßig faxen, Mischbetrieb zocken und auf dem Beamer einen Film für die Freundin/ Kids klappt da nicht.

Abhilfe schafft die iGPU, wenn man eine hat.
 
  • Gefällt mir
Reaktionen: coasterblog und Wynn3h
Habe als Hauptmonitor 34" UWQHD 144hz G-Sync (HDR allerdings aus, weil das eh nicht wirklich schön ist bei dem) und als Zweitbildschirm ein 24" 16:10 FullHD 60hz.

Ich habe keinerlei Probleme. Auch kann ich jegliche Konstellation zwischen den beiden und meinem Fernseher (4K, 120hz, VRR) laufen lassen, alles kein Thema.

Hängen bei mir alle an der GPU (RTX 4080). Stromverbrauch kannst du testen, aber ein Monitor mit 144hz verbraucht per se auch schonmal mehr Strom als einer mit 60hz. Ist also fraglich, ob sich das am Ende überhaupt lohnt.
 
Die beste Erfahrung habe ich mit gleichen Monitoren.
Die schlechteste in Office mit verschiedenen Grössen wenn man oft zwischen beiden wechseln muss.

Laufen tut alles, allerdings wollen z.B. einige Spiele immer auf Monitor 1 was sich mal besser mal schlechter umgehen lässt. Wie sich das bei AMD mit dieser Kombi verhält kann ich aber nicht wirklich sagen.

Sagen wir es mal so,
es ist mit Überraschungen zu rechnen...
Nebenbei steigt der Stromverbrauch bei höheren Bildwiederholfrequezen meistens etwas an, bei unterschiedlichen oft nochmal um einiges (ob es auch deine Anschlussveriante betrifft keine Ahnung).
 
SpamBot schrieb:
Meine letzen drei AMD Karten liefen im Mischbetrieb perfekt. HD 6870, 6950 und dann eine r9 390.

Die Nvidia 3070 macht regelmäßig faxen, Mischbetrieb zocken und auf dem Beamer einen Film für die Freundin/ Kids klappt da nicht.

Abhilfe schafft die iGPU, wenn man eine hat.
Keine Ahnung warum man da ein Herstellerthema draus macht.

Multimonitoring macht seit 20 Jahren zicken, ob auf Windows, Linux, Intel, Nvidia oder AMD.
 
So ist es, allerdings hat jeder Hersteller da seine eigenen Problemchen und das nicht mal Konsistent.
 
Schinken42 schrieb:
Keine Ahnung warum man da ein Herstellerthema draus macht.
Hmmmm vielleicht weil wir nur zwei "große" Hersteller haben??!? Komisch. Vielleicht ist es ein Hersteller Ding mit zwei Herstellern und zwei unterschiedlichen aufbauten ihrer GPUs.... Komisch.
 
SpamBot schrieb:
Abhilfe schafft die iGPU, wenn man eine hat.
genau das war ja auch eine der Ideen ... die 7800X3D hat doch eine iGPU. Hier den "schwachen" Monitor dran und den Gaming an die GPU. Dann sollte zumindest seitens der GPU kein Problem existieren ... wie findet Windows sowas - wie die Monitore.

Blackeye33 schrieb:
Stromverbrauch kannst du testen, aber ein Monitor mit 144hz verbraucht per se auch schonmal mehr Strom als einer mit 60hz.
Ist das pauschal so korrekt? Wenn Windows doch VRR unterstützt und der 144hz Monitor doch auch - könnte Windows dann nicht im Idle sagen: Frequenz auf min runter (glaub das wären 20hz bei vielen Monitoren) und somit wäre der Verbrauch seitens GPU geringer und natürlich seitens Monitor.

Hat das nicht der letzte AMD-Treiber-Test hier auch gezeigt? https://www.computerbase.de/2023-07/grafikkarten-leistungsaufnahme-idle-2023/

Aber zusammenfassend kann man sagen: Ich kann meinen 22"@60hz erstmal als Zweitmonitor lassen und würde mir einen 27" mit 144hz/VRR holen. Wenn das mit 60hz und 144hz/VRR gut läuft, kann ich mir später noch einen weiteren 27" OFFICE-Monitor mit 60hz holen (oder vielleicht, je nach Preis, noch einen VRR)
 
also ich habe über die letzten... 12 Jahre in 3 verschiedenen Konstellationen (Monitor-Paare mit unterschiedlichen Parametern) nie Probleme unter Windows gehabt. Immer mit einer nvidia-Graka, zu AMD kann ich nichts sagen.

Zuletzt hatte ich über viele Jahre einen 144hz 27 Zoll Monitor mit einem 60Hz 25 Zollmonitor (beide über Displayport) und dazu noch einen TV (erst FullHD, danach 4k) über HDMI alles über eine 2070 Super in Betrieb.

Seit einem halben Jahr habe ich jetzt UWQHD 34 Zoll 144hz mit dauerhaft HDR an, HD 16 Zoll 60hz (über USB) und 4k TV per DP gemeinsam angeschlossen. Das ganze seit ca. einem Jahr an einer 3080ti.

Dazu allgemein seit 4 Jahren auch dauerhaft noch eine VR-Brille per Displayport mit an der Graka.

Ich konnte immer alle Monitore problemlos nutzen, auf einem läuft ein Spiel, auf dem anderen zB. Outlook/Browser/Discord/Youtube und auf dem TV meinetwegen gleichzeitig noch Sky oder so.

Grundsätzlich solltest du aber tatsächlich mögliche Fehlerquellen minimieren können, wenn du den Office-Monitor an die iGPU steckst. Windows 10/11 sollte damit problemlos klar kommen.


Allerdings stimmt es schon, dass zB. hier im Forum immer mal wieder über Probleme berichtet wurde und wird. Woran es am Ende jeweils gelegen hat ist aber eigentlich immer unterschiedlich.
 
WulfmanGER schrieb:
[..] somit wäre der Verbrauch seitens GPU geringer und natürlich seitens Monitor.

Hat das nicht der letzte AMD-Treiber-Test hier auch gezeigt? https://www.computerbase.de/2023-07/grafikkarten-leistungsaufnahme-idle-2023/

Bei dem Test wird leider nicht auf den Stromverbrauch des Monitors eingegangen. Aber es ist schon naheliegend. Wäre zumindest eine interessante Ergänzung dazu. Vor allem, wie sich die Wiederholrate und der Verbrauch des Monitors verhält bei unterschiedlichen Workloads wie Videos angucken oder browsen.

Und wenn es dir um ein paar Watt geht, würde ich mir HDR auch nochmal überlegen. Da zieht die Helligkeit schon gut an (wäre mir aufm Desktop eh zu unangenehm). Kann man mittlerweile auch per Hotkey togglen.
 
SpamBot schrieb:
Hmmmm vielleicht weil wir nur zwei "große" Hersteller haben??!? Komisch. Vielleicht ist es ein Hersteller Ding mit zwei Herstellern und zwei unterschiedlichen aufbauten ihrer GPUs.... Komisch.
Ach ja? Monitore und Betriebssysteme gibt's nur von 2 Herstellern?

Komm mal runter, Grafikkarten sind nicht das einzige Teil in einem PC.
 
Blackeye33 schrieb:
Bei dem Test wird leider nicht auf den Stromverbrauch des Monitors eingegangen.
jepp ... wir haben ja "zwei" Faktoren: GPU (iGPU, dGPU) und Monitor. Ich hab tatsächlich keine Ahnung was ein Monitor schluckt - was mir nur aufgefallen ist, alle Monitore die Aufgrund "platter" Stats in die Auswahl kommen (ich werde da noch eine Kaufberatung starten), sind F und ähnlich ....

Blackeye33 schrieb:
würde ich mir HDR auch nochmal überlegen. Da zieht die Helligkeit schon gut an
HDR springt aber ja grundsätzlich nur an wenn die Anwendung es will. Windows ansich (Desktop) ist ja sicher nicht in HDR. Und da ist dann natürlich die frage: bringt es was, bringt es nichts. Ich gucke HDR am TV und ich muss sagen ... die Version ohne HDR sieht ähnlich gut aus.... Nur die meisten Monitore sind halt HDR-tauglich - also probieren ;)

snoopa~zZ schrieb:
Allerdings stimmt es schon, dass zB. hier im Forum immer mal wieder über Probleme berichtet wurde und wird.

Mir war jetzt wichtig das ich nicht ein "Grundsätzliches" Thema übersehen habe. "Mach das auf keinen Fall - das spiel wird mit 144hz ruckeln wie sau wenn du den Desktop mit 60hz betreibst ....". Meine weitere Planung geht daher erstmal auf 1x 27" neu ... und mein aktueller Hauptmonitor (22"...) wird zweit-Monitor (per HDMI an CPU; während der 27er per DP an die GPU kommt). Und dann sehen wir weiter.
 
Ja, probier es erstmal aus mit deinem alten Monitor. Kaputt gehen kann davon ja nichts.

Ich hatte wie gesagt nie irgendwelche Probleme mit einem 2-Monitor-Setup 👍.

PS: zumindest in Windows 10 muss man HDR auch allgemein in Windows aktivieren, damit es in Spielen oder Filmen genutzt werden kann, wodurch sich dann auch das Desktop-Bild verändert. Bei vielen wird es dann extrem überbelichtet oder bekommt einen Grauschleier, da muss man vermutlich ein paar Einstellungen in Windows vornehmen. Bei mir klappt es aber problemlos mit dauerhaft aktiviert.
 
Zurück
Oben