Verständnisfrage 144 Hz - Danke

didi72de

Commander
Registriert
März 2008
Beiträge
2.339
Hallo,

meine Grafikkarte wurde mit erneut toller Unterstützung von euch hier im Forum erfolgreich erneuert (Sapphire Nitro+ RX580). Nun soll mittelfristig ein neuer Monitor folgen, auch hier würde mir schon geholfen.

Jetzt habe ich aber eine Verständnisfrage:

Die Grafikkarte wird unter FullHD oder WQHD bei Spielen wie Witcher 3 oder ähnlich in sehr guten Qualitätseinstellungen ja nie die 144 Hz schaffen, laut diversen Tests zwischen 45 - 70 FPS. Lohnt es sich dann auf die 144 Hz Wert zu legen? Oder würde es reichen wenn man 60 bzw. 75/100 Hz nimmt. Immer in Verbindung mit FreeSync natürlich.

Danke Euch.

Gruß Didi
 
Naja interessant wird es dann für Spiele die 144Hz schaffen, häufig eSports titel, dann wird es nochmal ein anderes Spielerlebnis ;-)
 
Kurz und Knapp - auch wenn du nicht 144fps und mehr packst, lohnt sich ein 144hz Monitor - wenn er dann noch mit Freesync ist um so mehr.
 
Wer haut diesen Mist immer raus das eine Graka unbedingt 144 FPS liefern muss damit man 144Hz am Monitor nutzen kann? Ich hab eine RX580 und einen Monitor mit 144Hz. Funzt wunderbar. Auch in Spielen in denen ich keine 144 FPS hab. Aber ich hab da 144 Hz. Die Frequenz am Monitor ist nicht abhängig von den FPS.

Edit: Es lohnt sich einen Monitor mit 144 Hz zu holen. Ist echt angenehmer für die Augen.
 
  • Gefällt mir
Reaktionen: TheManneken, CastorTransport, Flomek und eine weitere Person
Kurz: Ja.
Lang: Die Aktualisierungsrate eines Monitors ist erstmal grundsätzlich völlig losgelöst von FPS. Je öfter ein Monitor sein Bild aktualisiert, desto weicher ist die Darstellung, Punkt. Einige, die das Prinzip nicht verstanden haben, sind der Meinung, dass Hz = FPS sein muss, da sich sonst ein solcher Monitor nicht lohnt. Diese Leute haben idR. gar keinen 144 Hz Monitor. :)
Mit den Technologien wie Freesync und Gsync ist es im Prinzip noch einfacher den Monitor voll auszuloten, auch ohne hohe Bildwiederholrate, daher bei Freesync erst recht.
 
  • Gefällt mir
Reaktionen: Flomek
Soviel ich weiß wird FreeSync die Hz-Anzahl des Monitors ja dann auf deine FPS-Zahl anpassen und somit wäre es kein Problem ^^
Aber wenn du nur Spiele wie Witcher usw spielst und keine Competetive Spiele wie CSGO usw, dann könnte für dich ein IPS-Monitor evtl mehr lohnen, die Hz-Zahl dann je nach Auflösung und Monitorgröße auswählbar (z.B. gibt es 24Zoll IPS mit 75Hz, aber kein 144Hz) ^^
 
  • Gefällt mir
Reaktionen: Duke00
Ich würde einen 144Hz FreeSync Monitor nehmen.
z.B. den AOC Agon AG271QX https://geizhals.de/aoc-agon-ag271qx-a1446277.html für 448€.

Ein wenig Theorie:

Die Bildwiederholrate gibt an, wie oft pro Sekunde das Bild auf dem Monitor wechselt.
Angegeben in Hz (Hertz) beim Monitor oder in FPS (Bilder pro Sekunde) bei der Grafikkarte.

Ein normaler Monitor hat in der Regel 60Hz, kann also 60 Bilder pro Sekunde darstellen.
Nun ist dein Rechner (CPU/Grafikkarte usw.) leistungsstark genug, um - sagen wir mal - CounterStrike mit 134 Hz zu rendern.
Die Grafikkarte wäre also in der Lage 134 Bilder pro Sekunde auszugeben und macht das auch.

Der Monitor kann aber nur 60Hz, also 60 Bilder pro Sekunde, darstellen.
Das bedeutet das Bilder gerendert werden, z.B. eine Bewegung, du aber nicht jedes Bild davon sehen kannst. Das Bild sieht "unregelmäßig abgehackt" aus. Das nennt man auch Tearing.

Dieses Phänomen ist immer da, wenn die Menge an gerenderten Bildern pro Sekunde nicht mit der Menge an dargestellten Bildern pro Sekunde übereinstimmt.
(Das war jetzt vereinfacht ausgedrückt. Korrekt wäre das in dem Fall zwei oder mehr zeitlich unterschiedliche Bilder gleichzeitig dargestellt werden, Stichwort z.B. FrameTime oder FramePacing.)

An der Stelle könnte man noch Framebuffer, Front- und Backbuffer sowie PageFlip erklären...

Jetzt gibt es VSync. Vertikale Synchronisation. Warum vertikal?
Das stammt aus der Zeit der Röhrenmonitore, die noch mit Halbbildern bzw. Zeilensprungverfahren arbeiteten.

VSync bedeutet das die Grafikkarte künstlich "gedrosselt" wird und maximal nur so viele Bilder berechnet und ausgibt wie der Monitor tatsächlich darstellen kann.
Also z.B. 60 Bilder pro Sekunde. Das sieht dann weniger "abgehackt" aus. Das führt aber dazu das Bewegungen gleichmäßig "ruckeln".

Seltsamerweise ist man es bei Kinofilmen gewohnt das diese mit sogar nur 24 bzw. 25 Bildern pro Sekunde laufen. Bei Computerspielen wird das aber als störend empfunden...
Achtung. Das kann natürlich trotzdem heißen das ein Spiel mit weniger FPS gerendert wird als der Monitor darstellt.

Nun gibt es ein verbessertes System: Adaptive Sync. Das ist Teil des VESA Standards seit 2009. Aber natürlich bieten die beiden großen Hersteller entsprechende, eigene Lösungen an:
nVidia nennt es G-Sync, AMD nennt es FreeSync. Beide Systeme sind nicht kompatibel untereinander. Beide machen aber das gleiche.
Und sowohl der Monitor als auch die Grafikkarte müssen es beherrschen.

Beide nutzen das sog. Blanking-Intervall (VBLANC) des Monitors, zu Deutsch Austastintervall, um die Bildwiederholrate dynamisch bzw. variabel zu gestalten.
Grob gesprochen ist das der Moment zwischen dem Ende der Darstellung eines Frames und dem Beginn der Darstellung eines neuen Frames. (Stammt ebenfalls noch aus der Zeit der Röhrenmonitore.)
nVidia nutzt dazu einen zusätzlichen Scaler, der im Monitor verbaut sein muss. AMD kommt ohne aus und orientiert sich näher am VESA Standard Adaptive Sync.

Monitore mit G-Sync sind aufgrund von Lizenzkosten und der notwendigen Zusatzplatine meist etwas teurer als Monitore mit FreeSync.

Es gibt nämlich ein weiteres Problem. Die FPS, die gerendert werden, sind nie konstant, sondern schwanken mitunter sehr stark.
Sind nicht viele Objekte usw. im Bild, können mehr Bilder berechnet werden als wenn sehr viel los ist auf dem Bildschirm und du dich auch noch schnell durch diese virtuelle Welt bewegst.

Dieses System sorgt nun dafür das der Monitor genau die Bilder pro Sekunde darstellt, die die Grafikkarte aktuell liefert.
Es gibt also keine feste Bildwiederholrate mehr, sondern sie passt sich kontinuierlich an die FPS, die die Grafikkarte liefert, an.
Natürlich bis zum für den Monitor maximal technisch darstellbaren.

Monitore mit G-Sync oder FreeSync können nämlich oft mehr als 60 Bilder pro Sekunde darstellen. Diese haben meist 144Hz oder mehr.
(Monitore, die mit mehr als 144Hz angegeben werden (z.B. 165Hz), haben auch nur ein 144Hz Panel, dass aber quasi "übertaktet" wird.
Eine Technik, die man seit Jahren von Fernsehern kennt, bei denen das Panel auch gerne übersteuert wird.)

Wird das Spiel konstant mit mehr als 144Hz gerendert, hast du wieder das gleiche Problem wie ohne G-Sync/FreeSync.
Da diese Monitore aber fast immer eine entsprechend hohe Auflösung haben und der Spieler die Einstellungen der Spiele entsprechend höher dreht (weil die Darstellung flüssiger aussieht),
spielt das aber kaum eine Rolle.

Input Lag ist wieder was anderes und hat nichts mit dem oben genannten zu tun.
Input Lag bedeutet nichts anderes als die Zeit, die vergeht, bis das gerenderte Bild, von der Grafikkarte kommend, im Monitor verarbeitet, dargestellt und in deinen Augen angekommen ist.
Oder anders formuliert, die Latenz zwischen der Mausbewegung und der wahrgenommenen Bewegung auf dem Bildschirm.

Das hat nichts mit dem verbauten Panel-Typ zu tun, also TN, IPS, VA usw.
Diese unterscheiden sich in der Art wie sie letztlich ein sichtbares Bild erzeugen, haben unterschiedliche Kontrastwerte, sind unterschiedlich schnell und unterschiedlich farbecht.
IPS Panels haben - grob gesprochen - die besseren Farben, VA Panels den besseren Kontrast.

Zusammenfassung:

- Kein G-Sync/FreeSync, kein VSync: Feste Bildwiederholrate, variable FPS.
Schnelle Darstellung, aber immer Tearing. Je nach Rechner, Bildschirm, Spiel und Einstellung unterschiedlich stark, aber immer da.

- Kein G-Sync/FreeSync, VSync: Feste Bildwiederholrate, feste FPS.
Kein Tearing, aber eine scheinbar langsame und gleichmäßig ruckelnde Darstellung. Vor allem bei Monitoren mit nur 60Hz.
Weniger störend als Tearing, aber vor allem bei schnellen Bewegungen wie Shootern usw. durchaus störend, weil Bewegungen langsamer erscheinen.

- G-Sync/FreeSync: Variable Bildwiederholrate, variable FPS.
Beide immer gleich laufend, bis zum maximal möglichen des Monitors.
Kein Tearing, kein Ruckeln, eine schnelle und flüssige Darstellung.

PS:
Es gibt auch noch Fast Sync. Das lasse ich an dieser Stelle aber mal außen vor.
Fast Sync ist im Grunde ein leicht verbessertes Adaptive Sync, kommt aber nicht an die Qualität von G-Sync oder FreeSync heran.

Bei manchen Spielen ist es auch hilfreich ein Frame-Limit einzustellen.
Manche Spiele haben bereits ab Werk einen fest eingebauten/eingestellten FrameLimiter laufen, sieht man oft z.B. bei Konsolen-Portierungen.

Und G-Sync/FreeSync arbeitet nur in einem bestimmten FPS-Bereich. Liegen die FPS darunter oder darüber, greift das System nicht mehr.
Diese Range ist bei FreeSync oft kleiner als bei G-Sync.

Grundlagen halt...
 
  • Gefällt mir
Reaktionen: cm87 und dome_2395
axl foli schrieb:
Lang: Die Aktualisierungsrate eines Monitors ist erstmal grundsätzlich völlig losgelöst von FPS. Je öfter ein Monitor sein Bild aktualisiert, desto weicher ist die Darstellung, Punkt.
Verstehe ich nicht. Wieso sollte es "weicher" werden wenn der PC nicht die Frames liefert? Der Monitor kann doch maximal dasselbe Bild nochmal anzeigen.
Wenn ich ein 10 FPS Gif an einem 144Hz Monitor anschaue wird das dort nicht weicher aussehen als auf einem 60Hz Monitor.

@TE Meiner Meinung lohnt sich ein 144Hz Monitor nur im eSport Bereich wo es auf schnelle Reaktion ankommt. Bei allen anderen Spielen bist du mit weniger auch super bedient. Vorallem wenn deine Graka auf meist auf 60 fps ist.
 
  • Gefällt mir
Reaktionen: Bitcatcher, lexoon und Luzifer71
ein mal 144hz, immer 144hz :D. lohnt sich, auch wenn du keine 144fps erreichst. selbst im desktopbetrieb angenehmer.. seiten scrollen auf 60hz ist nun qualvoll geworden (zb auf der arbeit -.-)
 
  • Gefällt mir
Reaktionen: Koale
Reine 144Hz lohnen sich immer dann wenn free oder GSync nicht möglich sind. Ja, das Bild wird weicher und, Tearing wird sehr gut minimiert. Gerade dann wenn man weniger frames liefert. Beispielsweise nur 50 oder 60. Freesync setzt da aber noch einen drauf meiner Meinung nach. Würde darauf achten das der Bildschirm AMDs LFC unterstützt, also die kleinste sync Frequenz mindestens die Hälfte der Größten ist. Gerade bei dem von Dir genannten Spiel müssen es keine 144 FPS sein um ein flüssiges Spielerlebnis zu haben.
 
Hallo,

vielen Dank für die Erklärungen und den Link! Ihr seit klasse! Jetzt bin ich ein wenig schlauer.

Das würde doch dann aber auch bedeuten das wenn ich z.B. in WQHD Auflösung spielen würde und FreeSync greift in einem Bereich ab 35/40 Hz, dass es dann "geschmeidig" läuft, oder bin ich da auf dem Holzweg?

Danke Euch.

Gruß Didi
 
Sagen wir du hast einen 75Hz Monitor mit FreeSync Bereich von 40-75Hz, dann würde FreeSync bewirken, dass dein Monitor die Hz-Zahl an deine FPS anpasst, sofern du 40-75 FPS hast. Wenn deine FPS Zahl exakt der Hz Zahl entspricht, merkt man Ruckler usw nur sehr gering bzw vllt sogar gar nicht und das würde sich halt geschmeidiger anfühlen ^^
 
Auf 35/40 FPS springt der mit aktiviertem FreeSync logischerweise auf 35/40 Hz, weil er die Refreshrate an der FPS orientiert. D.h. der Vorteil ist in dem Moment nicht gegeben. Das verhindert zwar Tearing, aber butterweich wirds dadurch halt nicht.
 
Ich kann @esb315 nur zustimmen. Dieses Ammenmärchen das die Grafikkarte unbedingt die 144FPS schaffen muss kann ich auch nicht nachvollziehen.

Ich habe mich bewusst für 144Hz + Freesync entschieden, und das trotz relativ betagter 380x.
Aber alleine die Tatsache, das man von 40-144 FPS quasi ohne Tearing oder Stuttering spielen kann ist einfach zu gut. Ich wollte, das mein Monitor genau das anzeigt, was die Grafikkarte im Stande ist zu leisten - und das habe ich so erreicht. Bei aufwendigen Spielen komme ich dann halt in den unteren Bereich rein (Witcher, PUBG). Dafür kann ich für E-Sport Titel die vollen 144Hz auskosten.

Und wenn man dann auch noch das Radeon Zusatzfeature "Chill" verwendet, bleibt die Karte tatsächlich kühler ohne Unterschiede im Spielgefühl
 
Zuletzt bearbeitet: (144Hz -> 144FPS geändert nach Hinweis von @TheManneken)
Richtig, z.B. beim von mir genannten AOC Agon AG271QX greift FreeSync zwischen 30 und 144Hz.
Das heißt wenn dein Spiel z.B. mit 76Hz läuft, hast du genau die Vorteile die FreeSync ausmachen, eben kein Tearing...
 
"dass die Grafikkarte unbedingt 144hz schaffen muss" ist natürlich falsch. Hier ist FPS gemeint. Die Grafikkarte schafft natürlich eine Bildwiederholfrequenz von 144hz.

"wenn ein Spiel mit 76hz läuft" - dasselbe. Die Bildwiederholfrequenz stellt man ja im Treiber bzw. unter Windows ein.

Ich weiß, was ihr beide gemeint habt, aber es führt immer nur zu Verständnisproblemen und wie erwähnt "Märchen", die immer wiederholt werden.
 
  • Gefällt mir
Reaktionen: didi72de
#basTi schrieb:
Verstehe ich nicht. Wieso sollte es "weicher" werden wenn der PC nicht die Frames liefert? Der Monitor kann doch maximal dasselbe Bild nochmal anzeigen.
Wenn der Monitor eine höhere Wiederholrate hat ist die Zeit zwischen den Bildwechsel kürzer. Das heißt wenn ein neues Bild von der Grafikkarte kommt liegt diese nicht so lange im Puffer der Grafikkarte und wird früher auf dem Monitor angezeigt.
 
Sorry. Ja ich habe FPS gemeint.
Wobei es technisch gesehen wumpe ist: 144FPS = 144 1/s; 144 Hz =144 1/s
Aber richtig, um Missverständnisse zu vermeiden sollte man für die Bildausgabefrequenz der Grafikkarte FPS, und für die Bildwiederholrate des Monitor Hz verwenden.
 
Danke Euch für die Erklärungen und Meinungen! Klasse.

Das bedeutet, dass ich mit einer RX580 auch einen WQHD Monitor nehmen kann. Dann sollte ich aber auf einen FreeSync Bereich von 30/40 Hz-144 Hz schauen, am besten mit LFC. Liege ich da richtig?

Gruß Didi
 
Zurück
Oben