2-Monitor Setup, wieviel Hz auf dem 2.?

Dilated83

Bisher: DiLaTeD83
Lt. Junior Grade
Registriert
Sep. 2020
Beiträge
412
Wie oben schon beschrieben würde mich mal interessieren wie es sich mit den Hz verhält wenn man 2 Monitor hat.
ich habe 2 WQHD Monitore, Primär 144Hz, Sekundär 75Hz, der aktuell auf 60 läuft. Beide mit der GPU verbunden. Hier meine Frage:

Sollte man den 2. Monitor mit 60 oder 75Hz laufen lassen und wie verhält es sich dann mit dem "Leistungsverlust"? Gibt es überhaupt einen? Den 2. Monitor nutze ich hauptsächlich für Discord und Browser. Würde mich mal interssieren wie da so die Erfahrungswerte sind.

Oder ist es gar sinnvoll den 2. Monitor über den integrierte GPU vom CPU (i9-9900k) zu betreiben?

Freue mich über eure Antworten! :)
 
die Bild Refreshrate des Monitors hat nichts mit den FPS der Grafikkarte zu tun.

Andersherum !kann! die Bild Refreshrate des Monitors mit den FPS welche die Grafikkarte liefert zusammenhängen wenn irgend eine Sync Funktion aktiviert ist. :)
 
Stell den Monitor auf 75Hz. Hast nen flüssigeres Erlebnis von Discord und Browser... insbesondere beim Scrollen finde ich, solltest du den Unterschied merken.

Einen 2. Monitor wuppt deine 3080 auf einer halben pobacke ab... vmtl. wirst du nicht einmal einen Unterschied in deinen FPS messen können wenn du auf die iGPU wechselst mit dem.
 
  • Gefällt mir
Reaktionen: Yesman9277
Prinzipiell lautet die Regel, je mehr FPS desto besser bzw. flüssiger und weicher läuft das Bild.

Deswegen wäre schon Sinnvoll immer einen Monitor max. FPS zu betreiben und auch anzustreben.
In meinen Augen wäre es rausgeworfenes Geld, wenn man sich schon einen 75Hz Monitor holt aber dann am Ende nur mit 30fps betrieben wird.

Prinzipiell würde ich die Monitore immer an die Grafikkarte hängen.
 
Ich würde mir eher Gedanken um den Energieverbrauch im Leerlauf machen. Je nach Setup taktet die Grafikkarte im Betrieb mit mehreren Monitoren nicht mehr vollständig runter. Wenn es hier also zwischen 144 + 60 und 144 + 75 einen Unterschied gibt würde ich eher den geringeren Verbrauch als die paar HZ mehr bevorzugen. Allerdings weiss ich nicht ab welcher Schwelle die aktuellen Grafikkarten da anders reagieren. Kann also auch sein dass es bei beiden Möglichkeiten noch keinen Unterschied gibt.
 
  • Gefällt mir
Reaktionen: Physikbuddha
Christian1297 schrieb:
Ich würde mir eher Gedanken um den Energieverbrauch im Leerlauf machen. Je nach Setup taktet die Grafikkarte im Betrieb mit mehreren Monitoren nicht mehr vollständig runter.

Also tatsächlich taktet die GPU ziemlich weit in Idle runter, bist weit unter 300 MHz.
Das hat meine "alte" RTX 2070 Super nicht gemacht, die hing auch im Idle immer so bei 1,1 - 1,2 Ghz.
 
Du hast beide Monitore da, warum ist es ein Problem für Dich den "Leistungsverlust" kurz zu benchen?
3DM mit beiden Monitoren aktiv, 3DM mit einem Monitor abgesteckt. 3DM wenn der 2. Monitor an der IGPU steckt.
Würde die Frage beantworten, ganz ohne uns, dauert keine 10 Minuten.
Ich versteh euch da echt manchmal nicht. Keinen Bock selbst Antworten zu finden? Keine Zeit? Dauert doch viel länger den Thread hier zu eröffnen anstatt es auszuprobieren. Oder nicht? Oder ist das eher eine abstrakte Diskussion über ein kokretes Problem? Ist aus dem Text nicht ganz rauszulesen :-)

In der Regel kommt der "Leistungsverlust" ja von den Anwendungen, die auf dem 2. Bildschirm laufen (die wir nicht kennen), oder Du hast ein generelles Problem aufgrund der unterschiedlichen Refreshrate.


Lektüre, über die Du eventuell schon gestolpert bist? Gibt ja ne Sufu im Forum^^


https://www.computerbase.de/forum/t...ark-ergebnisse-u-weniger-fps-in-bf-v.2033492/

https://www.computerbase.de/forum/threads/neuer-high-end-pc-streaming-ruckler-fps-drops.2016347/
https://www.computerbase.de/forum/threads/zweiter-monitor-laggy.1750631/
https://www.computerbase.de/forum/t...-monitor-nach-aufruestung-auf-240-hz.1688354/
https://www.computerbase.de/forum/threads/pc-ruckelt-mit-2ten-bildschirm.1721149/
https://www.computerbase.de/forum/t...hen-specs-fluessiger-betrieb-machbar.1717937/
https://www.computerbase.de/forum/t...nn-stream-auf-zweitem-monitor-laeuft.1741057/
Und auch in anderen Foren präsent.
https://extreme.pcgameshardware.de/threads/2-monitore-144hz-60hz-ruckler.603541/
http://extreme.pcgameshardware.de/monitore/500000-1x100hz-1x60hz-ruckeln-am-zweiten-bildschirm.html
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ExBergmann, Yesman9277, PHuV und eine weitere Person
Corros1on schrieb:
Prinzipiell lautet die Regel, je mehr FPS desto besser bzw. flüssiger und weicher läuft das Bild.
? Das das eine mit dem anderen nix zu tun hat, hat doch jemand vor dir schon geschrieben:
ExigeS2 schrieb:
die Bild Refreshrate des Monitors hat nichts mit den FPS der Grafikkarte zu tun.
Die Hertz Zahl vom Monitor ist eine Abtastrate in der der Monitor schaut ob ein neues Bild verfügbar ist.
Bei 60Hz schaut der Monitor alle 1s/60=0,016s ob die Grafikkarte im Ausgang ein neues Bild hat und stellt dieses Bild diese Zeit lang dar, bis es nach 0,016s (oder 16ms) wieder nach dem nächsten Bild schaut. Bei 75Hz eben 1/75=0,013s
Die Grafikkarte legt ein neues Bild in den Ausgangsspeicher und der ist es völlig egal, ob der Monitor gerade in dem Moment nach einem neuen Bild schaut oder nicht. Wenn du Pech hast, kommt das Bild in den Ausgangsspeicher, kurz nachdem der Monitor gerade noch das letzte Bild abgerufen hat und siehst dann erst 16 oder 13ms später das Bild, was zu dem Zeitpunkt schon 10ms alt ist.
Wichtig dabei ist zu wissen, dass die FPS Zahl ein Mittelwert der vom PC/Grafikkarte berechneten Bilder ist und die Bilder nicht alle im gleichen Zeitabstand am Schnürchen kommen, sondern durchaus ein Bild schneller auf das letzte folgt als ein anderes (siehe bei Spieletests die Frametimes). Bei 60FPS kann es durchaus sein, dass manchen Bilder 20ms brauchen bis sie vom PC berechnet wurden und andere schon nach 10ms fertig waren.
Bei 20ms Zeitabstand kannst du mit 60Hz das neue Bild frühestens nach 32ms sehen, bei 75Hz schon nach 26ms, aber nie bereits nach den 20ms, in der die Grafikkarte das Bild in den Ausgangsspeicher legt.
Bei 10ms kann es sein, dass du das Bild nie siehst.
Die Abtastrate kann daher nicht hoch genug sein.

Anders wird das erst mit Synchronisierungstechniken.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ExigeS2 und Christian1297
@SavageSkull du hast recht. Ich war zu faul es so genau zu beschreiben :) Dachte als simple Erklärung zum Vorstellen würde es ausreichen das ganze "Refreshrate" zu nennen :p
 
Interesseiert mich auch, denn ich will mir irgendwann auch einen GSync-Monitor holen und würde gern den 60Hz Dell aus der Signatur noch als Zweitmonitor verwenden.
 
Zurück
Oben