2 Grafikkarten für 3 Monitore

King Domi

Cadet 4th Year
Registriert
Sep. 2013
Beiträge
125
Hallo,

ich habe mein System aufgerüstet auf einen I9-9900k, Gigabyte Aorus z390 master, 64GB Ram, MSI RTX 2080 Super.
Aktuell hängen 3 Monitore an der Karte, 2x 1920x1080 und 1x 3840x2160. Es wird nur auf dem 4k Monitor gespielt, die anderen beiden werden ausschließlich für Desktop genutzt bzw. Netflix, Twitch, Spotify während gleichzeitig auf dem 4k Monitor gespielt wird.

Ich habe mir nun überlegt auf 3 4k Monitore aufzurüsten, da mich zum Einen der Versatz der Auflösungen, wenn man Fenster von einem auf dem anderen Monitor zieht, stört und es zum Anderen nicht schlecht wäre mehr Platz zu haben.
Ich habe mir auch überlegt, meine alte Grafikkarte Palit GTX1070 einzubauen und die beiden Desktop Monitore an diese Karte zu stecken, den Gaming Monitor an die 2080. Die beiden Karten sollen nicht über SLI laufen.

Der 4k Monitor ist ein Acer Predator XB281 und die anderen Beiden würden dann ebenfalls dieses Modell werden.

Nun zu den Fragen:
1) Ist es Sinnvoll die 3 Monitore auf die 2 Karten zu verteilen oder würde die 2080 alle 3 Schaffen, da die Last der Desktop Monitore zu vernachlässigen ist?
2) Funktioniert das mit den 2 Karten überhaupt?
a. Allgemein betrachtet
b. Reicht dafür mein 650W Netzteil? 1070 170W, 2080 250W, i9 95W, 2x WD Black 30W, 1x WD Blue 15W , 2x M2 SSD 10W, 2x SATA SSD 10W, SoundBlaster Z ?W, Aquastream Ultra ?W, 13 Lüfter 10W, aquaero 6LT, 3x Splitty9 = ca. 600W viel Luft bleibt nicht aber mir fällt auch nicht ein was man noch irgendwann einbauen könnte. Es kommt auch vor, dass 10-15 USB Ports gleichzeitig belegt sind (Logitech Yoke, 2 Panels, 2 Throttle Quadrants, Pedale, USB Lampe, USB Mischpult, Maus, 2x Ports für Tastatur, Hotas Warthog joystick + throttle, USV Überwachung, Webcam, Lüftersteuerung für die Aquasuite evtl. noch ne USB Festplatte oder mal ein Handy.


LG Domi
 
1) ist nicht sinnvoll, die 2080 schafft das locker
2) klaro
a/b erübrigt sich durch 1)
 
  • Gefällt mir
Reaktionen: jlnprssnr und iXoDeZz
Beides (2080 solo / 2080 + 1070) sollte eigentlich ohne Probleme gehen.

Wenn du die 1070 aber eh da hast würde ich empfehlen es einfach mal aus zu probieren. Denn bei 3 4K Monitoren wird die 2080 vermutlich den Takt nicht mehr soweit senken. Gibt immer wieder mal Leute die sich wundern warum ihre GPU auf dem Desktop nicht mehr richtig runter taktet, vor allem den Speicher. Das resultiert in einem höheren Stromverbrauch und mehr abwärme. Wäre möglich das die Lüfter daher nicht mehr abschalten.
Ich würde also beide Varianten testen und zum einen den Stromverbrauch mit einem Messgerät überprüfen und sich auch ansehen wie die GPUs sich in beiden Setups verhalten.

Ich würde zwar erwarten das eine einzelne 2080 sinnvoller ist, aber man weiß ja nie.


Edit:
@Renegade334 hat natürlich recht. Die integrierte GPU deiner Intel CPU zu nutzen ist der effizienteste Weg.
Dachte irgendwie du hättest nen Ryzen.

Edit 2:
Ok wenn es durch die Mainboardanschlüße torpediert wird macht es natürlich wieder keinen Sinn.
 
Zuletzt bearbeitet:
Wenn du willst, dass die 2080 noch in den höchsten Energiesparmodus geht (was bei so hohen Auflösungen teilweise blockiert), kannst du auch einfach die Intel Grafik für die zusätzlichen Bildschirme nutzen. Netflix und Office auf 2x4K sollte die locker packen.

//edit:
Ich sehe gerade dein Board hat kein DisplayPort und dadurch nur HDMI 1.4.
Damit wird es bei 4K natürlich schwierig :/
 
Macht für die GPU quasi keinen Unterschied wie viele Monitore daran hängen. Die Last in dem Sinne kommt durch Anwendungen, wobei es ziemlich egal ist ob man drei auf einem Monitor öffnet oder drei auf drei Monitoren.
 
SlaterTh90 schrieb:
Macht für die GPU quasi keinen Unterschied wie viele Monitore daran hängen.
Das stimmt leider nur halb. Die Last ist an sich wirklich winzig, aber scheinbar muss die GPU trotzdem in eine höhere Taktstufe wechseln. Die niedrigste Stufe wird mit 2 Monitoren nicht mehr genutzt. Ansonsten ist es der Karte wirklich egal, solange der Anzeigespeicher noch Platz hat (und nicht wie früher im Treiber künstlich nur auf Quadro Karten eingeschränkt wird). Das reine Anzeigen kostet nur vernachlässigbare Leistung.
Bei meiner 1080Ti hat der 2. Monitor halt so gerade den Unterschied gemacht, dass die Karte nicht mehr in den Zero Fan Modus geschaltet hat weil der Leerlauf nicht mehr voll genutzt werden konnte, daher hatte ich den 2. Monitor dann an die iGPU gehängt.
 
King Domi schrieb:
1070 170W, 2080 250W, i9 95W
95W für den 9900K? der war gut. bei maximaler volllast schluckt der über 200W, und auch ohne AVX kann man da locker 130W durchjagen. beschränkt man den auf seine TPD erreicht der je nach lastzustand keine 4GHz mehr. je nach modell schluckt die 2080S auch mehr als 250W. die 1070 dagegen wird, wenn sie nur nen desktop anzeigt, nicht ansatzweise 170W fressen.

welches 650W-NT?
 
Zurück
Oben