Freesync, VRR, G-Sync... was tut was?

ReinerReinhardt

Captain
Registriert
Feb. 2018
Beiträge
3.106
Hey liebe CB'ler,

vielleicht kann mir jemand in der Sache helfen, bzw. mich ein Wenig mit Wissen bereichern.
Über Freesync, G-Sync, VRR, Adap. Sync. und was es alles noch gibt, wird viel gesprochen... aber was genau bewirken diese Techniken und was ist der Unterschied?
Der Grund meiner Frage, ein Kumpel mit einer RX 590 und einem Free Sync. Monitor (nicht G-Sync. verifiziert) behauptet zum einen, VRR und Free Sync ist exakt das gleiche, und zum anderen, Framedrops in Spielen fällt durch Free Sync. kaum bis gar nicht auf, weil diese "virtuell nachberechnet werden."
Tatsächlich habe ich das bei der Xbox Series X und Gears 5 von Digital Foundry gesehen, durch VRR fallen Framedrops nicht so stark auf, aber wieso merke ich dann in all meinen Spielen Framedrops?

Ich selber nutze eine 1070Ti und einen Free Sync. Monitor (nicht G-Sync. zertifiziert), ich hatte auch für eine kurze Zeit den GL850 bei mir, der hingegen G-Sync. zertifiziert ist, aber ich habe da keinen Unterschied gemerkt.
Free Sync. gleicht doch die Hz an die FPS des Monitor um Tearing zu vermeiden, daher wird auch oft empfohlen die FPS z.B. auf 141 bei einem 144 Hz Monitor zu limitieren.
Aber sei es CoD MW, Apex Legends, War Thunder, 7DTD, Skyrim uvm, fallen meine FPS, schwanken diese in bestimmten Bereichen, z.B. wenn gerade viel auf dem Bildschirm los ist, ich merke den Unterschied sofort und es stört immens meinen Spiel Flow.

Sorry für den langen Text, aber ich möchte einfach mal die Unterschiede erfahren und wie ihr die Aussage von meinem Kumpel bewertet.
 
VRR= variable Refreshrate, steht meistens für G-Sync+Freesync Kompatiblität
Freesync= nur AMD-Karten kompatibel (VRR nur seitens AMD)
G-Sync = nur Nvidia -Karten kompatibel (VRR nur seitens Nvidia)

Allerdings haben Freesync Monitore heutzutage trotzdem schon die G-Sync-Kompatiblität, obwohl sie nicht bei Nvidia dafür gelistet sind, was komisch ist.

Ich hatte bisher nur Nvidia Karten und konnte auch immer G-Sync mit meinen Freesync-Monitoren nutzen, der Unterschied war nie vorhanden. (Bis auf das Flickern vom G7, was ja behoben wurde durchs Firmware-Update :) )
 
  • Gefällt mir
Reaktionen: ReinerReinhardt
ReinerReinhardt schrieb:
und zum anderen, Framedrops in Spielen fällt durch Free Sync. kaum bis gar nicht auf, weil diese "virtuell nachberechnet werden."

virtuell Berechnet wird da gar nichts, totaler Bullshit...
Dadurch das Monitor und Grafikkarte synchron laufen bei aktiviertem VRR (zumindest in einem gewissen Bereich) fallen Framedrops nicht so sehr auf wie ohne, sind aber weiterhin natürlich bemerkbar.
 
  • Gefällt mir
Reaktionen: Oli_P und ReinerReinhardt
Framedrops haben mit einer variablen Bildwiederholungsrate eigentlich weniger zu tun, sondern eher Dynamic Resolution. Kommt bei Gears 5 zum Einsatz, auch bei vielen anderen Xbox Spielen. Auf dem PC ist das eher selten, prominentes aktuelles Beispiel wäre Assassins Creed Valhalla. Da kannst du z.B. 60FPS als Zielwert einstellen, und wenn die Performance dropt wird die Auflösung reduziert.

Generell sind alle Variable Refresh Rate Technologien ähnlich, sie passen die Bildwiederholungsrate an, damit es nicht zu Tearing kommt. Also eine "Alternative" zu V-Sync, obwohl auch beide in Kombination genutzt werden können. Der Vorteil ist dass der Input Lag etwas geringer ist als bei V-Sync, und dass man eben einen höheren Bereich "zulässiger" FPS hat. Auch das einstellen geht leichter von der Hand. Bei V-Sync werden ja nur die benutzerdefinierten Auflösungen erkannt (60Hz/100Hz/120Hz/144Hz etc.), bei Freesync kann ich sehen ,,Okay, in Spiel X hab ich 70-110 FPS, FPS Schwankungen sind blöd, also stell ich ein FPS-Limit bei 70 FPS ein, fertig. Kontinuierliche Frames ohne Tearing mit weniger Input Lag verglichen zu V-Sync".
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ReinerReinhardt
VRR (Variable Refresh Rate) heißt die Technik ansich (man nennt sie auch gerne Adaptive-Synchronisation-Technologie).
GSync ist die Nvidia Version. Freesync ist die AMD Version. Der VESA-Standard heißt "Adaptive-Sync" und bezeichnet die DisplayPort-Variante.
Die HDMI Variante nennt sich VRR. Diese ist eher im TV Bereich anzutreffen und es gibt sie erst seit HDMI 2.1.
Daneben gibt es noch Promotion, das ist die Apple Variante(iPad z.b.) und Q-Sync, das ist die Qualcomm-Version.

Freesync, VRR und Adaptive-Sync sind ähnlich bis gleich. Zuerst kam AMD 2015 mit Freesync über HDMI, erst später wurde eine Norm daraus, die man jetzt VRR nennt.
Ruckler bemerkt man mit Sync eigentlich nicht - ich jedenfalls nicht, solange es in der Sync-Range ist. Sobald es auch nur 1ms aus der Range raus ist, ruckelt es sofort.
Bei meinem Monitor geht es z.b. von 30-165Hz - bei vielen Freesync Monitoren hingegen geht die Range z.b. von 48-144 hz. (laut Standard 9-240, aber 9 bzw. unter 30, hab ich bisher noch nie gesehen) Ergo muss der PC durchgehend mindestens 49 fps liefern, damit es nicht ruckelt.

In Comp.Shootern hab ich G-Sync übrigens meistens aus. Die FPS ist hier eh deutlich über der Range und somit wäre es eh meistens nicht aktiv.
Bei Titeln wie HZD ist es hingegen Gold wert, solange man die FPS über 30 halten kann. Das Game wirkt absolut smooth zu jeder Zeit (ok den Input lag merkt man schon etwas ^^ , aber er fällt nicht auf solange es immer in der selben Range ist)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Daniel D., Nudin und ReinerReinhardt
Erst mal Danke für alle hilfreichen Antworten.

Ich verstehe bloß noch nicht die Aussage, dass mein Kumpel die Ruckler kaum bemerkt, bzw. wie es cruse ebenfalls angesprochen hat.
Wobei, ich glaube, ich verstehe wohl unter Ruckler was anderes, als Beispiel COD WarZone, Tearing fällt mir gar nicht auf, ich bin auch immer in der Range, dass verdanke ich ja Free Sync (obwohl ich eine Nvidia Karte habe) wenn ich das richtig verstehe, aber meine 1070Ti hat recht starke Probleme mit WarZone, ich merke es sofort, wenn die Frames von ~ 80 auf 60 runter gehen, aber da hilft ja weder VRR, Free Sync. und co, oder?
 
  • Gefällt mir
Reaktionen: nr-Thunder
warzone wird cpu limitiert sein, so wie quasi alle multiplayer shooter (auf low)
für tearing braucht man ein auge... einmal antrainiert bemerkt man es immer, sofort...selbst wenn man nicht will. daher wird es primär als werbung benutzt.
wem es einmal auffällt der sieht es immer
cod hab ich nicht installiert :-/
 
Zuletzt bearbeitet:
Ich nutze einen nicht-Gsync-veriferzierten Freesync-Monitor mit einer Nvidia-Karte. Es gibt Spiele, bei denen bemerk ich so gut wie gar kein Tearing, es gibt anderen Spiele bei denen bemerk ich es noch. Vsync ist komplett deaktiviert bei mir.
 
Angeregt durch die News habe ich auch mal nachgesehen was mein Monitor kann.

AMD FreeSync Premium (40-120Hz via DisplayPort, 40-120Hz via HDMI, mit LFC-Support, mit HDR), HDMI VRR

So ganz gecheckt habe ich den Unterschied zwischen VRR und Freesync Premium nämlich noch nicht..^^ Für mich hört sich das ganze so an als ob da eh kein (wirklicher) Unterschied besteht.

Kann mich hierzu jemand aufklären der etwas tiefer im Thema drin ist?
 
Tenferenzu schrieb:
ob da eh kein (wirklicher) Unterschied besteht.
Das ist auch so.

VRR steht im Grunde für die ganze Familie an Technolgien.
Darunter gibt es dann
  • Gsync
  • Adaptive Sync (Gsync-Compatible via DP, Freesync)
  • HDMI VRR (HDMI VRR und Gsync Compatible via HDMI)
  • Freesync via HDMI

Letztendlich machen alle mehr oder weniger das Gleiche.
 
  • Gefällt mir
Reaktionen: Tenferenzu
Zurück
Oben