Letztendlich ist die Herleitung ganz einfach.
Ein Freesync Monitor verhält sich außerhalb seiner Sync Range exakt so wie ein Monitor, der gar kein Freesync hat. Du hast dann also Ruckler und Tearing, wenn du die maximale Bildwiederholfrequenz und damit den Sync Bereich verlässt.
Wenn du jetzt z.B. einen 120 Hz Monitor hast, sagst du hast nur 90 FPS, bist deshalb mitten im Sync Bereich und verstehst nicht, warum du jetzt trotzdem noch zusätzlich Vsync an machen sollst?
Ganz einfach, Frametimes.
Die FPS geben ja nur nen Durschnittswert in einer Sekunde an. Frametimes jedoch die tatsächliche Zeit die zwischen dem letzten und den aktuellen Frame vergangen ist. Daraus errechnet sich natürlich die Framerate, aber die Framerate bildet eben nicht die Bildwechselzeit einzelner Frames ab. Und genau die ist ja entscheidend.
Wenn dein Monitor z.B: 120 Hz kann, dann bedeutet das nicht, dass er durchschnittlich 120 Bilder pro Sekunde anzeigen kann, sondern "eigentlich" bedeutet das aus rein technischer Sicht, dass die schnellstmögliche Bildwechselzeit 8,33 ms beträgt. Genau das ist entscheidend. Bilder Pro Sekunde würde heißen, dass die Bilder mal schneller mal langsamer kommen dürften und die Frametimes schwanken können. 120 Hz bedeutet aber, dass exakt periodisch alle 8,33 ms ein Bild angezeigt wird. Das ist ein feiner, aber wichtiger Unterschied. Die 8,33 ms sind in diesem Fall einfach der "hard cut" der niemals unterschritten werden darf.
Falls jetzt in deinem Gameplay mal irgendwann der Monitor schneller als innerhalb von 8,33 ms das Bild wechseln soll, (das kann durch schwankende Frametimes, Ruckler oder sonstiges jederzeit passieren) überschreitest du die Möglichkeiten deines Displays in diesem Moment und gelangst für einen oder wenige Frames außerhalb der Sync Range. Der Monitor verhält sich hier wie gesagt wie ein klassischer Monitor ohne Adaptive Sync, das Bild zerreißt (Tearing) und man sieht zuätzliches Ruckeln. Ist einfach unsauber.
Aktiviert man nun Vsync, dann sorgt Vsync zu jeder Zeit dafür, dass die Frametimes auf exakt diese 8,33 ms limitiert werden (im Falle von 120 Hz). Dadurch wird Tearing zu 100% verhindert und sichergestellt, dass die Bildausgabe stehts flüssig aussieht.
Einen erhöhten Inputlag durch Vsync muss man hier dann praktisch nur berücksichtigen, wenn man das Spiel komplett ins Vsync limit laufen lässt, also wenn man die vollen 120 FPS auf nem 120 Hz Display erreicht. Um das zu verhindert, limitiert man häufig die FPS ein paar Frames niedriger.
Auch hier gilt wieder. Ein FPS limiter limitiert die FPS, die durchschnittlich pro Sekunde gezeigt werden. Eine limitierung der Frametimes findet nicht zwingend statt oder kann zu unpräzise sein, da das frameratelimit meist nur CPU seitig greift und nicht auf seiten GPU (ausnahme dürfte RTSS sein). Vor allem ingame Limiter sind meist sehr unpräzise und zudem findet mit einem reinen FPS limiter auch keine synchronisation der Bildrate des Spiels mit der Bildwiederholrate des Displays statt. Vsync hingegen macht das (frametimes limitieren UND synchronisieren).
Ob man jetzt Vsync im Spiel oder im Treiber aktiviert ist am ende eigentlich egal. Denn das Vsync wird letztendlich immer über den Treiber ausgeführt, das Spiel fordert es dann nur an. Allerdings kann das Spiel sich etwas anders verhalten, wenn man man Vsync ingame aktiviert, weil das Spiel dann "weiß" dass Vsync aktiv ist. Hier können dann diverse Tweaks der Entwickler besser greifen. Idr. macht es aber 0 Unterschied.
FPS Limiter hingegen ist ne viel entscheidendere Sache. Idr. bieten die FPS Limiter ingame die geringste Latenz an, während externe FPS limiter wie RTSS oder der Limiter im Treiber die latenz unter Umständen etwas erhöhen können. Allerdings sind die Frametimes mit den Ingame limitern so gut wie immer ziemlich ungleichmäßig. Wer wert auf bestmögliche "smoothness" legt, der nutzt daher externe FPS limiter bzw. dem vom Treiber. Wer bestmögliche Latenz will, der nutzt den ingame limiter (würde ich nur bei competitive shootern machen)