weniger Fps durch freesync?

jburn

Lt. Junior Grade
Registriert
Mai 2019
Beiträge
399
Hab erstmals eine freesyncfähige amd-gpu 6900xt+ erworben und auch gleich aktiviert.
bei FH4 hab ich 144 Fps (monitor-native) eingestellt.
ohne freesync sind es immer 143/44 fps.
mit freesync schwankt das, so das durchschnittlich 93 überbleiben.
auch in benchmarks sehe ich das.

ist das Sinn der Sache, oder ist freesync eher für schwächere syteme?
 
Ein wenig Theorie in G-Sync/FreeSync:
Die Bildwiederholrate gibt an wie oft pro Sekunde das Bild auf dem Monitor wechselt.
Angegeben in Hz (Hertz) beim Monitor oder in FPS (Bilder pro Sekunde) bei der Grafikkarte.

Ein normaler Monitor hat in der Regel 60Hz, kann also 60 Bilder pro Sekunde darstellen.
Nun ist dein Rechner (CPU/Grafikkarte usw.) leistungsstark genug, das ein Spiel mit z.B. 134 Hz läuft.
Die Grafikkarte wäre also in der Lage 134 Bilder pro Sekunde auszugeben und macht das auch.

Der Monitor kann aber nur 60Hz, also 60 Bilder pro Sekunde, darstellen.
Das bedeutet das Bilder gerendert werden, z.B. eine Bewegung, du aber nicht jedes Bild davon sehen kannst. Das Bild sieht "unregelmäßig abgehackt" aus. Das nennt man auch Tearing.

Dieses Phänomen ist immer da, wenn die Menge an gerenderten Bildern pro Sekunde nicht mit der Menge an dargestellten Bildern pro Sekunde übereinstimmt.
(Das war jetzt vereinfacht ausgedrückt. Korrekt wäre das in dem Fall zwei oder mehr zeitlich unterschiedliche Bilder gleichzeitig dargestellt werden, Stichwort z.B. FrameTime oder FramePacing.)

An dieser Stelle könnte man noch Framebuffer, Front- und Backbuffer sowie PageFlip erklären. Das spare ich mir mal...

Jetzt gibt es VSync. Vertikale Synchronisation. Warum vertikal?
Das stammt ursprünglich aus der Zeit der Röhrenmonitore, die noch mit Halbbildern bzw. Zeilensprungverfahren arbeiteten.
Die Grafikkarte liefert erst dann ein neues Bild sobald das aktuelle Bild vollständig dargestellt ist.
(Bei Röhrenmonitoren also erst dann wenn der Elektronenstrahl Zeile für Zeile durchgegangen ist und vertikal wieder zurückspringt, um mit dem nächsten Bild weiterzumachen.)

VSync bedeutet das die Grafikkarte künstlich "gedrosselt" wird und maximal nur so viele Bilder berechnet und ausgibt wie der Monitor tatsächlich darstellen kann.
Also z.B. 60 Bilder pro Sekunde. Das sieht dann weniger "abgehackt" aus. Das führt aber dazu das Bewegungen gleichmäßig "ruckeln" und die Latenz kann ansteigen.

Seltsamerweise ist man es bei Kinofilmen gewohnt das diese mit sogar nur 24 bzw. 25 Bildern pro Sekunde laufen. Bei Computerspielen wird das aber als störend empfunden...
Achtung. Das kann natürlich trotzdem heißen das ein Spiel mit weniger FPS gerendert wird als der Monitor darstellt.

Nun gibt es ein verbessertes System: Adaptive Sync. Das ist Teil des VESA-Standards (Video Electronics Standards Association) seit 2009.
Aber natürlich bieten die beiden großen Hersteller entsprechende, eigene Lösungen an:
nVidia nennt es G-Sync, AMD nennt es FreeSync. Beide Systeme sind nicht kompatibel untereinander. Beide machen aber das gleiche.
Und sowohl der Monitor als auch die Grafikkarte müssen es beherrschen.

Beide nutzen das sogenannte Blanking-Intervall (VBLANC) des Monitors, zu Deutsch "Austast-Intervall", um die Bildwiederholrate dynamisch bzw. variabel zu gestalten.
Grob gesprochen ist das der Moment zwischen dem Ende der Darstellung eines Frames und dem Beginn der Darstellung eines neuen Frames. (Stammt ebenfalls noch aus der Zeit der Röhrenmonitore.)
nVidia nutzt dazu einen zusätzlichen Hardware-Scaler, der im Monitor verbaut sein muss. AMD kommt ohne aus und orientiert sich näher am VESA Standard Adaptive Sync.

Monitore mit G-Sync sind aufgrund von Lizenzkosten und der notwendigen Zusatzplatine meist etwas teurer als Monitore mit FreeSync.
Seit einiger Zeit unterstützt auch nVidia offiziell FreeSync. Allerdings ist nicht jeder FreeSync-Monitor kompatibel. Es gibt bei nVidia aber eine Liste und hier im Forum gibt es auch eine.
Bei Geizhals kann man mittlerweile auch die Kategorie "NVIDIA G-Sync Compatible" auswählen.

Es gibt nämlich ein weiteres Problem. Die FPS, die gerendert werden, sind nie konstant, sondern schwanken mitunter sehr stark.
Sind nicht viele Objekte usw. im Bild, können mehr Bilder berechnet werden als wenn sehr viel los ist auf dem Bildschirm und du dich auch noch schnell durch diese virtuelle Welt bewegst.

Dieses System sorgt nun dafür das der Monitor genau die Bilder pro Sekunde darstellt, die die Grafikkarte aktuell liefert.
Es gibt also keine feste Bildwiederholrate mehr, sondern sie passt sich kontinuierlich an die FPS, die die Grafikkarte liefert, an.
Natürlich bis zum für den Monitor maximal technisch darstellbaren.

Monitore mit G-Sync oder FreeSync können nämlich oft mehr als 60 Bilder pro Sekunde darstellen. Diese haben meist 144Hz oder mehr.
(Monitore, die mit mehr als 144Hz angegeben werden (z.B. 165Hz), haben oft auch nur ein 144Hz Panel, dass aber quasi "übertaktet" wird.
Eine Technik, die man seit Jahren von Fernsehern kennt, bei denen das Panel auch gerne übersteuert wird.)

Warum eigentlich die krumme Zahl 144Hz? Das nennt man auch "Triple Flash", entspricht 3x48Hz und stammt ursprünglich aus der Kino-Technik.
Normale Kinofilme (auf den jahrzehntelang üblichen Filmrollen) laufen mit 24 Bildern pro Sekunde, wobei aber jedes Bild zweimal dargestellt wird durch einen Shutter.
Auf der Leinwand kommen also 48 Bilder pro Sekunde an. Bei einer modernen Digitalprojektion funktioniert das etwas anders.

Wird das Spiel konstant mit mehr als 144Hz gerendert, hast du wieder das gleiche Problem wie ohne G-Sync/FreeSync.
Da diese Monitore aber fast immer eine entsprechend hohe Auflösung haben und der Spieler die Einstellungen der Spiele entsprechend höher dreht (weil die Darstellung flüssiger aussieht),
spielt das aber kaum eine Rolle.

Input Lag ist wieder was anderes und hat nichts mit dem oben genannten zu tun.
Input Lag bedeutet nichts anderes als die Zeit, die vergeht, bis das gerenderte Bild, von der Grafikkarte kommend, im Monitor verarbeitet, dargestellt und in deinen Augen angekommen ist.
Oder anders formuliert, die Latenz zwischen der Mausbewegung und der wahrgenommenen Bewegung auf dem Bildschirm.

Das hat nichts mit dem verbauten Panel-Typ zu tun, also TN, IPS, VA usw.
Diese unterscheiden sich in der Art wie sie letztlich ein sichtbares Bild erzeugen, haben unterschiedliche Kontrastwerte, sind unterschiedlich schnell und unterschiedlich farbecht.
IPS Panels haben - grob gesprochen - die besseren Farben, VA Panels den besseren Kontrast.

Zusammenfassung:

- Kein G-Sync/FreeSync, kein VSync: Feste Bildwiederholrate, variable FPS.
Schnelle Darstellung, aber immer Tearing. Je nach Rechner, Bildschirm, Spiel und Einstellung unterschiedlich stark, aber immer da.

- Kein G-Sync/FreeSync, VSync: Feste Bildwiederholrate, feste FPS.
Kein Tearing, aber eine scheinbar langsame und gleichmäßig ruckelnde Darstellung. Vor allem bei Monitoren mit nur 60Hz.
Weniger störend als Tearing, aber vor allem bei schnellen Bewegungen wie Shootern usw. durchaus störend, weil Bewegungen langsamer erscheinen.

- G-Sync/FreeSync: Variable Bildwiederholrate, variable FPS.
Beide immer gleich laufend, bis zum maximal möglichen des Monitors.
Kein Tearing, kein Ruckeln, eine schnelle und flüssige Darstellung.

PS:
Es gibt auch noch Fast Sync. Das lasse ich an dieser Stelle aber mal außen vor.
Fast Sync ist im Grunde ein leicht verbessertes Adaptive Sync, kommt aber nicht an die Qualität von G-Sync oder FreeSync heran.

Bei manchen Spielen ist es auch hilfreich ein Frame-Limit einzustellen.
Manche Spiele haben bereits ab Werk einen fest eingebauten/eingestellten FrameLimiter laufen, sieht man oft z.B. bei Konsolen-Portierungen.

Und G-Sync/FreeSync arbeitet nur in einem bestimmten FPS-Bereich. Liegen die FPS darunter oder darüber, greift das System nicht mehr.
Diese Range ist bei FreeSync oft kleiner als bei G-Sync.
Grundlagen halt...
 
  • Gefällt mir
Reaktionen: PHuV und conf_t
jburn schrieb:
Hab erstmals eine freesyncfähige amd-gpu 6900xt+ erworben und auch gleich aktiviert.
bei FH4 hab ich 144 Fps (monitor-native) eingestellt.
ohne freesync sind es immer 143/44 fps.
mit freesync schwankt das, so das durchschnittlich 93 überbleiben.
auch in benchmarks sehe ich das.

ist das Sinn der Sache, oder ist freesync eher für schwächere syteme?
Wo werden die "FPS" angezeigt ? Ggf st das die Hz-Anzeige vom Bildschirm.
Ohne freesync ist er statisch auf 144
Mit freesync werden die echten FPS anzeigt
 
Hab ich nen knick in der Optik oder haben alle eure bisherigen Beiträge nichts mit dem Problem zu tun?!

Er sagt er hatte vorher 144 FPS auf einem 144 Hz Display, mit Freesync nur noch 90 FPS.

Das sollte nicht sein.
In Forza kann man einen FPS limiter einstellen. Der bietet immer eine Option, die der maximale Displayfrequenz entspricht. Hat man also ein 144 Hz Display bietet der Limiter eine Auswahlmöglichkeit an, die FPS bei 144 zu limitieren.

Mit einer 6900XT ist es durchaus sehr wahrscheinlich dass er in 1440p konstant in diesem 144 FPS Limit klebt, wie eingestellt.
Das sollte aber mit Freesync nicht plötzlich weniger werden.
 
144 fps zu haben heißt aber nicht unbedingt, dass diese zwingend synchron zu den 144 Hz des Monitors sind.
 
verstehe.
ausser dumme antworten gibt es hier nichts.
die frage war ob das so sein soll, das freesync niedriegere fps liefert als ohne.
 
Vielleicht sollte erstmal geklärt werden ob (Grafikkarten-)FPS oder (Monitor-)Hz gemeint sind.
Mit G-Sync/FreeSync solltest du nicht plötzlich weniger FPS haben.

Ich gehe jede Wette ein das FH4 ohne FreeSync nicht - wie du sagst - konstant mit 144 Hz läuft.
Das wäre 1. ein extemer Zufall und widerspricht 2. dem grundsätzlichen Funktionieren einer Grafikkarte,
--> es sei denn das ein FrameLimiter im Hintergrund läuft und das Spiel ohne Limiter mit noch mehr FPS laufen würde.

Das kann die fest eingestellte Bildwiederholrate des Monitors sein und ehr nicht die FPS, die die Grafikkarte liefert.
Unterschiedliche Spiel- und Monitor-Einstellungen - unabhängig von FreeSync - können aber natürlich die erreichbaren FPS positiv wie negativ beeinflussen.

Ich habe dir versucht ausführlich zu erklären was FreeSync macht. Das war ganz sicher keine Zitat: "dumme Antwort".
--> Weil du auf diese Weise erkennen müsstest das alleine dadurch die FPS nicht plötzlich weniger werden können.

Wo bzw. mit welchem Tool liest du die FPS aus?
Und was hast du wo eingestellt, im Monitor, im Grafikkartentreiber, im Spiel?
 
Zuletzt bearbeitet:
Naja, er sagt, dass er in Benchmarks dasselbe Verhalten hat. Dennoch heißt 144 fps bei 144 Hz halt nicht "kein Tearing". Es heißt nicht zwingend, dass Grafikkarte und Monitor immer synchron arbeiten.

Konkrete Zahlen (Screenshots von Messungen) würden wohl helfen, die Sache für andere zu beurteilen.

Ich persönlich halte einen Einbruch um ein Drittel auch für etwas ungewöhnlich viel.
 
Er hat doch geschrieben, dass er im Spiel 144 FPS eingestellt hat.

Wie ich bereits geschrieben habe, hat Forza einen entsprechenden FPS Limiter integriert, genau den wird der TE meinen.

Dass er dann auch wirklich konstant 144 FPS erreicht ist in 1440p mit einer 6900XT auch völlig normal.


Der einbruch auf 90 mit Freesync ist aber nicht normal, da selbst mit meiner 3060ti die FPS deutlich höher als 90 liegen...

Menschenskinder, lest doch bitte mal aufmerksam, was geschrieben wird.
Manchmal könnte man meinen, hier sind bots unterwegs, die zufällige Antworten posten. WTF :freak:
 
Zurück
Oben