V-Sync Frametimes - RTX 3090

Darkseth88 schrieb:
Hätte ich da tearing, glaube mir, ich würde es sehen.
Schau lieber nochmal nach was im Treiber unter Vertikale Synchronisierung steht.
Welche Grafikkarte hast du und mit welchen Settings bzw. wie viel FPS zockst du ?
Vielleicht je weniger FPS desto weniger Tearing. Bei 100FPS+ auf jeden Fall sichbar.
 
Dann muss VSync irgendwo aktiv sein.

Oder ihr seht es halt nicht - seid froh.
 
0ssi schrieb:
Schau lieber nochmal nach was im Treiber unter Vertikale Synchronisierung steht.
Welche Grafikkarte hast du und mit welchen Settings bzw. wie viel FPS zockst du ?
Vielleicht je weniger FPS desto weniger Tearing. Bei 100FPS+ auf jeden Fall sichbar.
Warum denn so ungläubig? Ich habe doch direkt bestätigt, dass V-Sync AUS ist. Im Treiber & im Spiel, und habe 2 mal bestätigt dass ich definitiv 100%ig kein Tearing habe bei mir mit den Settings.
Im Treiber "wird von der Anwendung gesteuert", auch wenn ich das treiberseitig deaktiviere kein Unterschied.
In Games ist es immer aus, das ist mit Bewegungsunschärfe das zweite was ich deaktiviere.
Bei egal welchen fps, es gibt kein tearing, solange meine fps innerhalb meiner G-Sync Range sind, und das sind sie weil ich mit Riva Tuner die fps auf 140 begrenze.
Es KANN kein Tearing hier geben, da G-sync funktioniert. Tearing wäre nur möglich, wenn durch irgendeinen Bug G-Sync nicht aktiv wäre, obwohl es aktiv sein sollte.

Bei mir werkelt eine GTX 1080.

Und nein, es gibt wirklich kein Tearing bei mir. Ich würde es sofort sehen, ich bin so empfindlich zu Tearing wie es nur sein kann, ich kann so nicht spielen und ich kann auf nichts achten außer die Bildrisse, wenn sie da sind.

Ich habe mir all die Jahre nie sonderlich viele Gedanken gemacht warum überall behauptet wird, dass man V-Sync aktivieren muss, obwohl es bei mir nie so war.
Weil wenn man sich mal die technische definition durchliest, was G-Sync (bzw VRR) und V-Sync überhaupt machen, sollte klar sein, dass beides nicht gleichzeitig aktiv "arbeiten" kann, weil beide genau gegenteilige Dinge tun. Daher ist es logisch, dass ich V-Sync niemals brauche, und es hat alles so funktioniert wie es sollte.

G-Sync: Monitor wartet auf die Grafikkarte. Sobald die Grafikkarte das Bild fertig hat, refresht der Monitor. Die laufen 100% im Sync genau deswegen. Es ist technisch hier nicht möglich, dass es Tearing gibt, andernfalls wäre würde G-Sync nicht das tun, was es soll (fehlerhaft oder deaktiviert).

V-Sync: Sorgt dafür, dass die Grafikkarte erst dann das letzte vollständige Bild an den Monitor sendet, wenn dieser refresht - mit seiner fixen Refreshrate. Also etwas anders rum: Die Grafikkarte wartet auf den Monitor.
Ergibt in der Kombination technisch ja gar keinen Sinn, die grafikkarte kann hier nicht auf den Monitor warten, weil dieser sich der Grafikkarte anpasst mit jedem einzelnen Frame.

Technisch sinn ergibt die kombi nur, wenn man den fps-limiter weg lässt, denn sobald die fps in dem Beispiel 144+ erreichen ohne Limit, ist G-Sync aus und V-Sync greift, weil bei 144 fps und mehr läuft der Monitor eben einfach fix mit 144 Hz. Ohne V-Sync würden die fps also höher gehen als 144, damit gibt's dann tearing. Unter 144 fps dann wieder alles synchronisiert.

G-Sync bzw Freesync/Adaptive Sync ist schon eine Synchronisation von Bildwiederholrate und Bildausgabe an sich.


Noch mal:
  • Jegliches V-Sync ist zu 100% überall deaktiviert bei mir seit 7 Jahren. Egal ob es Games sind die mit 30-50 fps laufen, oder Games die dank Rivatuner in einem sauberen 140 cap laufen.
  • G-Sync ist an
  • 140 fps Limit mit Rivatuner
  • Ich habe 100%ig kein Tearing.
  • Nein, es ist nicht möglich, dass ich es nicht sehe. Ich würde es sehen, wäre es da.
 
  • Gefällt mir
Reaktionen: Ja_Ge
Wenn du innerhalb der Range, mit deaktivierten VSync deine FPS cappst und dann diese Grenze erreichst (nicht nur für zwei FPS, Mit einer 1080 wirst du selten in den Bereich von 140 FPS kommen)
dann hast du Tearing. Das ist die Funktionsweise von GSYNC.
  1. Bist innerhalb der Range und VSync ist aus - kein Tearing
  2. Bist du innerhalb der Range und cappst die FPS und erreichst diese Grenze auch, hast du ohne VSync Tearing
  3. Gsync funktioniert dann am besten, wenn du VSync an hast und die FPS auf knapp unter der max. Bildwiederholfrequenz cappst. So umgehst du den VSync inputlag
Sorry, aber das ist halt die Funktionsweise wie Gsync funktioniert.
Das ist der semi-offizielle Weg, den auch NVIDIA, bzw. dessen Community-Manager so halbgar kommuniziert.
Und wenn VSync an, am besten im Treiber, da dort weniger Stuttering einhergeht.
 
Nein, du irrst dich.

Ich setze über Riva Tuner ein fps-limit auf 140 mittels Software.
Mein Monitor ist aber im Treiber auf 144 Hz gestellt.
Solange die fps unter 144 sind, bin ich im G-Sync bereich und G-Sync funktioniert.
Wenn ich in einem Game dann im 140 fps Cap bin, bin ich immer noch im G-Sync bereich. Hier gibt's kein V-Sync was greifen könnte, weil es erst ab 144 greift, da mein Monitor auf 144 Hz gestellt ist.


autopilot schrieb:
Gsync funktioniert dann am besten, wenn du VSync an hast und die FPS auf knapp unter der max. Bildwiederholfrequenz cappst. So umgehst du den VSync inputlag
Den umgehst du, weil du mit diesen Settings gar nicht erst in den Bereich kommst, in dem V-Sync überhaupt greifen würde ;)

Mit einem 140 fps Cap ist im Monitor ja trotzdem eine maximale Bildwiederholrate von 144 gestellt. Alles drunter = G-Sync.
Mit Riva Tuner sorge ich dafür, dass ich "innerhalb der Range" bleibe.


V-Sync ist nur das Auffangnetz gegen Tearing, wenn man sonst keinen Limiter nutzt, der die fps im G-Sync Bereich hält.

Genau deswegen stellt man die fps "paar fps unter max Refresh rate", weil bei fps = Max Refreshrate ist
  • G-Sync aus, da der Monitor seine Hz nicht mehr anpasst
  • V-Sync greift, und der Inputlag erhöht sich damit

Ist ja nicht so, als könnte man das nicht einfach selbst mal austesten ;)
 
  • Gefällt mir
Reaktionen: Ja_Ge
Mit der 1080 bist du in aktuellen Spielen ja eher im Bereich von max. 60FPS unterwegs, je nach Auflösung
auch weniger und wenn das Tearing bei weniger FPS abnimmt dann merkt man es natürlich auch weniger.
Bei hohen FPS ist es ohne zusätzliches V-Sync trotz G-Sync im unteren Bildbereich auf jeden Fall sichtbar.

V-Sync unterstützt G-Sync innerhalb der G-Sync Range nur und korrigiert wohl Frametime Schwankungen
also es ist nicht das klassische V-Sync was ohne zusätzliches Frame Limit bei maximaler Aktualisierungsrate
anliegen würde und Input Lag erzeugt. So hart es klingt aber G-Sync alleine bedeutet nicht mehr tearingfrei.
 
  • Gefällt mir
Reaktionen: autopilot
0ssi schrieb:
Mit der 1080 bist du in aktuellen Spielen ja eher im Bereich von max. 60FPS unterwegs
Ich habe genug Spiele, in denen ich mit 140+ fps unterwegs bin, um das zu testen.
Da musst du dir keine Szenarien hier zurecht erfinden, ich habe genug Games, mit denen ich alle fps-Bereiche abdecken kann.
Und wie schon gesagt, ich bin extrem empfindlich zu Tearing. Wenn es da ist, sehe ich es - zumindest mit meinen maximal 144 Hz.

Morgen dürfte meine 4070s ankommen, und kann das gerne noch mal mit aktueller Hardware testen und nachreichen. Aber auch da wird das Ergebnis gleich sein, alles andere würde mich überraschen.

0ssi schrieb:
und wenn das Tearing bei weniger FPS abnimmt dann merkt man es natürlich auch weniger.
Bei hohen FPS ist es ohne zusätzliches V-Sync trotz G-Sync im unteren Bildbereich auf jeden Fall sichtbar.
Wie schon mehrmals gesagt: Ich habe kein tearing. Null. Nichts. Nicht bei 40 fps, nicht bei 80 fps und nicht in 140 fps.

Denn ich habe G-Sync aktiviert und sorge mit riva tuner dafür, dass ich niemals über die G-Sync Range meines monitors drüber kommen kann, auch nicht mit League of Legends oder 10 Jahre alten Games deren Settings ich auch reduzieren kann.
0ssi schrieb:
V-Sync unterstützt G-Sync innerhalb der G-Sync Range nur und korrigiert wohl Frametime Schwankungen
also es ist nicht das klassische V-Sync was ohne zusätzliches Frame Limit bei maximaler Aktualisierungsrate
anliegen würde und Input Lag erzeugt.
Genau, das ist genau das, was G-Sync tut. Es korrigiert frametime schwankungen, indem der Monitor seine Bildwiederholrate der frameausgabe der Grafikkarte anpasst, damit wird auch jegliches Tearing komplett eliminiert. Das ist die definition von G-Sync.
Wenn man Tearing hat, ist G-Sync nicht aktiv.
0ssi schrieb:
So hart es klingt aber G-Sync alleine bedeutet nicht mehr tearingfrei.
Doch natürlich.
Das kann so hart klingen wie du es gerne hättest, aber ich nutze G-Sync alleine und bin vollkommen tearingfrei.
Das ist exakt das, was G-Sync überhaupt machen soll - das sagt auch Nvidia selbst auf deren Webseite. G-Sync ist per definition tearingfrei.
z.B.: https://www.nvidia.com/content/cont...ts/nvdspdeu/To_use_variable_refresh_rates.htm
Nvidia selbst schreibt nichts davon, dass man V-Sync aktivieren muss, damit G-Sync funktioniert. Es sind 2 verschiedene Technologien, die unterschiedliche Dinge tun.


Laut deiner Signatur hast du doch eine Nvidia Grafikkarte und einen VRR Monitor. Nicht direkt G-Sync, aber das sollte doch genau so laufen, das kannst du doch genau so nachstellen.
Hast du ernsthaft Tearing, wenn du nur G-Sync/VRR nutzt und mit Rivatuner z.B. die fps limitierst & V-Sync überall deaktivierst?


Edit: Vielleicht habe ich alleine auch einen komischen Bug, der dafür sorgt, dass es so funktioniert wie es soll, während alle anderen V-Sync brauchen, damit G-Sync das tut, was es soll?! who knows..

Aber bei mir ist definitiv G-Sync alleine ohne V-Sync 100% tearingfrei. In jedem Game, in jedem fps-bereich, der in der Range meines monitors liegt. Seit 2017, und seit letztem Jahr mit komplett neuer Plattform (nur Grafikkarte übernommen), und insgesamt 3 oder 4 Windows-Neuinstallationen mit kA wie vielen Treiber-neuinstallationen inklusive vorherigem entfernen mit DDU.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Ja_Ge
Gerade nochmal getestet und ohne Vertikale Synchronisation Ein trotz G-Sync definitiv Tearing aber:
Mit 60FPS Limit wirklich schwer zu erkennen, mit 80FPS leicht im mittleren Bereich, mit 100FPS Limit
quasi überall und mit 118FPS Limit gefühlt weniger starke horizontale "Verschiebungen" der Bildteile
aber dafür viele kleine Risse an allen vertikalen Kanten. Das ganze auf 120Hz mit G-Sync kompatibel.

Ohne G-Sync mit 60FPS Limit starkes Tearing also die zerrissenen Bildteile sind deutlich verschoben.

https://blurbusters.com/gsync/gsync101-input-lag-tests-and-settings/15/

bb.jpg
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: autopilot
autopilot schrieb:
Mit einer 1080 wirst du selten in den Bereich von 140 FPS kommen)
Sorry, das ist schlicht Unsinn, wenn nicht zuerst das Spiel / die Spiele sowie die Setings definiert werden. Mir ist kein Spiel bekannt, das früher mit 100+ FPS auf einer GPU lief und nur auf Grund des Alters 2-Stellige FPS Verluste hat.
 
Ja stimmt, ich bin von „normalen“ aktuellen AAA-Spielen ausgegangen.
Der Unsinn startet bei low Settings in Schach und anderen LowFPS Spielen… :freak:
Und Vollbild und Fester ist ebenfalls noch ein Unterschied.
Hat man nur Vollbild eingestellt und spielt im Fenster, synct DWM. Da gibt es dann auch kein Tearing, allerdings den Vsync-Inputlag.

Darkseth88 schrieb:
Ich setze über Riva Tuner ein fps-limit auf 140 mittels Software.
Mein Monitor ist aber im Treiber auf 144 Hz gestellt.
Solange die fps unter 144 sind, bin ich im G-Sync bereich und G-Sync funktioniert.
Wenn ich in einem Game dann im 140 fps Cap bin, bin ich immer noch im G-Sync bereich. Hier gibt's kein V-Sync was greifen könnte, weil es erst ab 144 greift, da mein Monitor auf 144 Hz gestellt ist.
So funktioniert es nicht mehr. Du hast Tearing, leicht, aber es ist da.

Darkseth88 schrieb:
Den umgehst du, weil du mit diesen Settings gar nicht erst in den Bereich kommst, in dem V-Sync überhaupt greifen würde ;)
Nichts anderes habe ich beschrieben. Nur greift VSync nicht erst vollkommen, wenn du die max. Range des Monitors erreichst. So funktioniert Gsync nicht mehr. Wie schon mal beschrieben. ;)

Darkseth88 schrieb:
Wie schon mehrmals gesagt: Ich habe kein tearing. Null. Nichts. Nicht bei 40 fps, nicht bei 80 fps und nicht in 140 fps.
Sei froh dass du es nicht siehst.

Darkseth88 schrieb:
Mit einem 140 fps Cap ist im Monitor ja trotzdem eine maximale Bildwiederholrate von 144 gestellt. Alles drunter = G-Sync.
Solange du nicht cappst, richtig. Cappst du ohne VSync, hast du wieder Tearing. So funktioniert Gsync mitlerweile.


Das eigentliche Problem ist das, dass Nvidia das nicht mehr kommuniziert, wie man es richtig einstellt.
Früher in den Anfangstagen von Gsync wurde Vsync im Treiber global forciert, um in den vollen Genuss von Gsync zu kommen. Da gab es noch kein Vollbild/Fesntermodus, noch kein Fastsync etc.
Dann gab es Stimmen die sich beschwert haben wegen dem Inpulag der dann greift, wenn man die max. Bildwiederholfrequenz erreicht und Nvidia hat es auf Wunsch mancher dann dem User überlassen. Samt den ganze Stolperfallen.
Dazu kommt noch, dass Microsoft ständig am Treibermodell und Fenstermanager rumschraubt, um ihre Overlays besser nutzen zu können. Das macht es auch nicht besser.
 
Zuletzt bearbeitet:
Ach Moment, ich glaube ich verstehe es. Der 144 Hz Monitor kann nur synchronisieren, wenn die Frames mindestens in einem Abstand von 6.9ms kommen (jetzt mal ganz unabhängig wie viele Frames in Summe pro Sekunde kommen).

Selbst bei 70 FPS ist ja nicht ausgeschlossen, dass ein einzelner Frame mal mit 6.6ms kommt, wenn die anderen langsamer sind. Selbst mit 140 FPS Cap, den das wird ja nicht überschritten, weil alle FPS zusammen innerhalb einer Sekunde dann unter 140 bleiben.

Theoretisch sollte der Monitor mit Gsync dann mit der Darstellung dieses zu schnellen Frames warten, sodass es nicht zu Tearing kommt. Kann er aber nicht, weil er schneller als 6.9ms gekommen ist. Langsamere FPS sind kein Problem, weil über 6.9ms und damit unterhalb der Gsync Range von 144.

Das würde dann bedeuten, dass Vsync sich permanent in diesen Einzelfällen dazu schaltet und dann direkt wieder aus und nicht nur erst bei 144,00 FPS aktiv wird.

Der Gsync Monitor kann also in Wirklichkeit nur Frames mit einem Abstand von 6.9ms bis 25ms (=40-144 AVG FPS) und nicht schlicht einfach 40-144 Frames pro Sekunde synchronisieren.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: autopilot
cvzone schrieb:
Ach Moment, ich glaube ich verstehe es. Der 144 Hz Monitor kann nur synchronisieren, wenn die Frames mindestens in einem Abstand von 6.9ms kommen (jetzt mal ganz unabhängig wie viele Frames in Summe pro Sekunde kommen).

Selbst bei 70 FPS ist ja nicht ausgeschlossen, dass ein einzelner Frame mal mit 6.6ms kommt, wenn die anderen langsamer sind. Selbst mit 140 FPS Cap, den das wird ja nicht überschritten, weil alle FPS zusammen innerhalb einer Sekunde dann unter 140 bleiben.

Theoretisch sollte der Monitor mit Gsync dann mit der Darstellung dieses zu schnellen Frames warten, sodass es nicht zu Tearing kommt. Kann er aber nicht, weil er schneller als 6.9ms gekommen ist. Langsamere FPS sind kein Problem, weil über 6.9ms und damit unterhalb der Gsync Range von 144.

Das würde dann bedeuten, dass Vsync sich permanent in diesen Einzelfällen dazu schaltet und dann direkt wieder aus und nicht nur erst bei 144,00 FPS aktiv wird.
Genau das.
Und wenn du da nun einen Cap reinhaust und du erreichst diesen dann auch für mehrere FPS, dann hast du ohne aktiviertem Vsync Tearing weil das Bild trotz Gsync direkt rausgehauen wird. Deshalb spielen ja viele "Pros" auch komplett ohne Gsync, da das eben immer leicht den Inputlag erhöht, auch ohne Vsync. Es wird ja trotzdem synchronisiert. Das klassische Vsync synchronisiert die FPS mit dem Monitor und dessen Bildwiederholfrequenz. Gsync synchronisiert eben den Monitor mit den FPS.
 
Zuletzt bearbeitet:
Vsync sorgt dann also im Grunde dafür, dass dann dieser eine Frame lange genug zurückgehalten wird, um synchronisiert zu werden. Würde es mehr tun, würde in diesem Moment ja die gesamte Hertzzahl des Monitors auf 144 Hz steigen und sich Gsync komplett deaktivieren. (für diesen einen Frame betrachtet stimmt das ja auch, für den Zeitraum einer Sekunde nicht, weil die restlichen Frames ja wieder variabel synchronisiert werden)

Jede Synchronisierung (Gsync weniger, Vsync mehr) führt natürlich zu einer Verzögerung, das ist klar und auch keine neue Erkenntnis.
 
  • Gefällt mir
Reaktionen: autopilot
Wie herrlich fruchtlose Diskussion :-) jeder hat seine eigene Meinung und Methode :-) . Mein Vorschlag, im Zweifel jede Methode ausprobieren und wenn es flüssig und Tearingfrei ist, dann ist doch egal warum :D

Gleichzeitig bei der ganzen Verwirrung darf man dann auch nicht vergessen, das alle "Gsync compatible" nichts mit Gsync zu tuen haben, sondern VRR/Freesync sind und Nvidia es aber durch den Marketing stunt hinbekommt denen so ihren Namen aufzudrucken (test auf kompatibilität halt :D )

Alleine dadurch, das es compatible ist und nicht Gsync kann ich mir vorstellen, das man dann doch eben die Freesync/VRR variante der Einstellung benutzen muss statt von Gsync. Wenn es da überhaupt nen Unterschied gibt.
 
  • Gefällt mir
Reaktionen: autopilot und Ja_Ge
Welche Technik (edit: also Gsync oder Gsync Compatible, Freesync) genutzt wird spielt im Grunde keine Rolle, wenn der beispielhafte 144 Hz Monitor nur frühestens alle 6.9ms ein Bild über VRR synchronisiert annehmen kann. Das Problem bleibt immer das Gleiche.

Wenn man die Betrachtung technisch auf einen einzelnen Frame runterbricht wird es schnell klarer.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Alexander2
Es ist einfach die Terminologie, Leute.
V-Sync kann als ein Oberbegriff berstanden werden. Auch FreeSync und G-Sync sind vertikale Synchronisation.
Nur, dass sie die in Frequenzbereichen statt bei einem festen Wert leisten.

Sofern der Monitor über mind 120Hz verfügt würde ich immer alles an empfehlen.
Wer nur 60 Hz Monitor hat, der muss schauen mit welchem Kompromiss er besser auskommt: saubere 60FPS aber etwas laggy oder mehr FPS und reaktiver aber Tearing.

Ich stimme zu, Tearing wirkt bei Monitoren mit >140Hz weniger störend.
 
  • Gefällt mir
Reaktionen: Ja_Ge
0ssi schrieb:
Gerade nochmal getestet und ohne Vertikale Synchronisation Ein trotz G-Sync definitiv Tearing aber:
Mit 60FPS Limit wirklich schwer zu erkennen, mit 80FPS leicht im mittleren Bereich, mit 100FPS Limit
quasi überall und mit 118FPS Limit gefühlt weniger starke horizontale "Verschiebungen" der Bildteile
aber dafür viele kleine Risse an allen vertikalen Kanten. Das ganze auf 120Hz mit G-Sync kompatibel.

Ohne G-Sync mit 60FPS Limit starkes Tearing also die zerrissenen Bildteile sind deutlich verschoben.

https://blurbusters.com/gsync/gsync101-input-lag-tests-and-settings/15/
Evtl gibt's nen Unterschied zwischen G-Sync Monitor mit Modul und "G-Sync Compatible", was ja nur die Unterstützung von Adaptive Sync ist?

jedenfalls kann ich das nicht nachstellen, eben mit Cyberpunk am Anfang in der Wüste bei dem Turm, bzw Stromleitungen, bei sowas ist tearing ja besonders sichtbar.
Riva Tuner mal auf 40 und 45 fps limit gesetzt und auch mal 25 und 30. Kein tearing sichtbar. Entsprechend ruckelig, aber keine Risse.
Bei 45 fps Limit z.B. hab ich glatte 22.2 ms Frametimes laut afterburner, Monitor läuft auch durchgehend mit 45 Hz. Wie mit dem Lineal gezogen, sowohl Afterburner Graph, als auch OSD. Ab und an 22.3 statt 22.2 ms, aber sonst nichts.
Und bei 45 Hz sind die Risse ja nochmal deutlich größer als bei 60 Hz, und das war schon schlimm genug.
autopilot schrieb:
Nichts anderes habe ich beschrieben. Nur greift VSync nicht erst vollkommen, wenn du die max. Range des Monitors erreichst. So funktioniert Gsync nicht mehr. Wie schon mal beschrieben. ;)
Kann ich wie gesagt nicht nachstellen bei mir.
Es läuft bei mir genau wie es soll, die Hz sind zuverlässig so wie die fps es vorgibt.

autopilot schrieb:
Sei froh dass du es nicht siehst.
Wäre es da, würde ich es ja sehen. Vor allem, wenn der Monitor mit fps limit und G-Sync auf 45 Hz runter geht oder gar 30. So selten wie er da Refresht gäbe es keine Chance, dass man Tearing nicht sieht.
Das selbe mit stuttering (z.B. 60 Hz Monitor V-Sync, aber fps fallen auf 55. Dann gab's immer diese doppelten frametimes, was auch extrem störend war).
autopilot schrieb:
Solange du nicht cappst, richtig. Cappst du ohne VSync, hast du wieder Tearing. So funktioniert Gsync mitlerweile.
Naja, wenn das folgende der Fall ist, dann funktioniert G-Sync an sich ja eben nicht wie es sollte. Würde es anstandslos funktionieren, dürfte es keine Chance geben, dass sich irgendwie ein "zu schneller Frame" einschmuggeln könnte. Bzw wenn G-Sync voll und ganz so funktioniert wie es soll, dann würde es ja niemals "unsynchron" laufen, solange die fps nicht höher werden als die Hz des monitors. Egal wie man die fps capt.

Woran das nun liegt, wer mit welchem Treibergedöns oder sonst was schuld ist, sei mal dahingestellt.

cvzone schrieb:
Theoretisch sollte der Monitor mit Gsync dann mit der Darstellung dieses zu schnellen Frames warten, sodass es nicht zu Tearing kommt. Kann er aber nicht, weil er schneller als 6.9ms gekommen ist. Langsamere FPS sind kein Problem, weil über 6.9ms und damit unterhalb der Gsync Range von 144.

Das würde dann bedeuten, dass Vsync sich permanent in diesen Einzelfällen dazu schaltet und dann direkt wieder aus und nicht nur erst bei 144,00 FPS aktiv wird.

Der Gsync Monitor kann also in Wirklichkeit nur Frames mit einem Abstand von 6.9ms bis 25ms (=40-144 AVG FPS) und nicht schlicht einfach 40-144 Frames pro Sekunde synchronisieren.
Das wäre ja nur möglich, wenn der fps limiter nicht funktioniert?

Wenn ich den Limiter auf 140 stelle, und damit die fps nie über 140 steigen = 7,14 ms, sollte es ja keine Chance geben, dass irgendein Frame schneller kommt als 6,9. Evtl schießt es mal um +1 oder so höher als das, was man eingestellt hat, aber auch das ist sehr selten.

Zumindest konnte ich so ein Verhalten noch nie beobachten.

Wie häufig sollen diese Einzelfälle denn auftreten? sind das 5 Risse pro sekunde, ein Riss in 30 minuten?

Alexander2 schrieb:
Wie herrlich fruchtlose Diskussion :-)
Fruchtlos würde ich nicht sagen, geht ja recht tief ins technische. Ist ja nicht uninteressant ;)
Ich hab mich auch schon Jahre lang gefragt, was da alles ständig erzählen, bei mir ist es einfach nicht so.

Alexander2 schrieb:
Gleichzeitig bei der ganzen Verwirrung darf man dann auch nicht vergessen, das alle "Gsync compatible" nichts mit Gsync zu tuen haben, sondern VRR/Freesync sind und Nvidia es aber durch den Marketing stunt hinbekommt denen so ihren Namen aufzudrucken (test auf kompatibilität halt :D )

Alleine dadurch, das es compatible ist und nicht Gsync kann ich mir vorstellen, das man dann doch eben die Freesync/VRR variante der Einstellung benutzen muss statt von Gsync. Wenn es da überhaupt nen Unterschied gibt.
Das wäre hier noch so das letzte technische, womit ich dieses Phänomen erklären könnte.

Falls sich jemand mit einem richtigen G-Sync Monitor (mit Modul) hier her verirrt, gerne mal testen?
Kann doch nicht sein, dass es bei sonst niemandem funktioniert, wie es eigentlich in der theorie sollte?
 
Darkseth88 schrieb:
Wenn ich den Limiter auf 140 stelle, und damit die fps nie über 140 steigen = 7,14 ms, sollte es ja keine Chance geben, dass irgendein Frame schneller kommt als 6,9.
Ja eben doch. Er limitiert dann nur die Menge der Frames pro Sekunde in Ihrer Gesamtheit. Es können damit trotzdem auch mal schnelle und langsame Frames kommen, die dann in Summe nur bei 105 oder so liegen und zwischendrin tritt Tearing auf, weil einer der Frames zu schnell kam, obwohl die Menge der Frames in der Sekunde unter 140 oder 144 lag.

Man muss sich die tatsächliche Geschwindigkeit jedes Frames gegenüber dem Vorgänger anschauen, und nicht nur einen sekündlichen Mittelwert. Denn nicht jeder Frame bei 100 FPS braucht 10ms zum rendern. Manche mehr, manche weniger.

In der Regel stellen die Frames der letzten Sekunde natürlich alle inhaltlich ein ähnliches Bild dar und haben daher eine ähnliche Renderzeit. Daher wird das Problem in der Regel nur selten auftreten.

Was er machen müsste ist zu schnelle Frames vor der Ausgabe dann so lange anhalten, bis mindestens 6,9ms vergangen sind. So arbeitet der stumpfe FPS Limiter aber nicht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: autopilot
Darkseth88 schrieb:
wenn der Monitor mit fps limit und G-Sync auf 45 Hz runter geht oder gar 30.
Da bist du aber auch meilenweit von der max. Refreshrate entfernt. Das wird so gering sein.

Darkseth88 schrieb:
Naja, wenn das folgende der Fall ist, dann funktioniert G-Sync an sich ja eben nicht wie es sollte.
Doch, das tut es. Nur wenn du es nur cappst, ohne Vsync, dann arbeitet es nicht wie es soll.
Das ist ja der Punkt: Gsync arbeitet mit Vsync Hand in Hand. Ob aktiviert oder nicht.
Wie gesagt, für den vollen Funktionsumfang von Gsync brauchst du in genau den Situationen Vsync.
Darkseth88 schrieb:
Falls sich jemand mit einem richtigen G-Sync Monitor (mit Modul) hier her verirrt, gerne mal testen?
Das wäre bei mir der Fall. Ich habe seit Ende 2014 nur native Gsync-Monitore gehabt und konnte die Entwicklung ganz gut verfolgen. Ohne Vsync, nur gecappt, innerhalb der Range -> Tearing
Von den kompatiblen Geräten bin ich ehrlich gesagt kein Freund von.
Echtes Gsync ist mit Modul, Gsync-kompatibel ist eine Softwarelösung (mit evtl. zusätzlichen Problemen, jeh nach Konstellation).
Im Freundeskreis sind einige damit unterwegs. Da fangen die Probleme mit den lustigen Freesync-Ranges an und gehen hin bis zum VRR-Glitzern/Flashing in einigen Spielen.
 
Zuletzt bearbeitet:
Zurück
Oben