Verständnisfrage Freesync

Demolition-Man

Rear Admiral
Registriert
Juli 2004
Beiträge
5.850
Hi,
ja ich habe gelesen, und gesucht habe ich auch!
Aber ich raffs net, werde halt alt, oder bins vielleicht schon. ;)

In wie weit ist die Bildwiederholfrequenz an die fps gekoppelt?

Bei einem Beispielmonitor steht: Adaptive Sync/​AMD FreeSync (47-75Hz)
Heißt das etwa, dass eine Grafikkarte immer mindestens 47fps liefern müsste? Was passiert denn, viele Games habe ja starke fps-Schwankungen, wenn es auf einmal nur 20-30fps sind? Tritt dann automatisch wieder tearing auf?
Schaltet sich freesync dann wieder ein wenn die fps steigen?

Nach oben werden die fps wie normal mit vsync bei 75 begrenzt?

Ich verstehst nicht, nur wenige, teure Monitore haben "Low Framerate Compensation (LFC)". Welche AMD Grafikkarte soll denn bitte in jedem Game in Full-HD konstant 47 fps+ liefern? (Die Frage ist rhetorisch)

Noch eine Zusatzfrage: Freesync funktioniert auch über HDMI? Einige günstige Monitore setzen halt drauf. Bin auch kein Fan davon, aber nur wegen einem Displayport 100€ mehr zu bezahlen, sehe ich auch nicht ein.

Sagt mal bitte was zu dem wirren Gelaber!
Danke und Gruß!
 
Also ja das hast du schon richtig verstanden im angegebenen FreeSync bereicht wir der Monitor auf die von der Grafikkarte erzeugte FPS Synchronisiert. Wie weit runter die FPS noch Synchronisiert werden hängt stark vom Monitor ab. So schafft dieser hier z.B. 30Hz.
http://geizhals.de/aoc-agon-ag271qx-a1446277.html?hloc=at&hloc=de

Also etwas mehr Geld für den Monitor ausgeben und einen suchen der bis 30-35Hz schafft.

Kann man sogar bei gh.de einstellen unter dem Punkt Adaptive Synchronisation (MIN)
Hier alle Monitore die bis 35Hz runter gehen
http://geizhals.de/?cat=monlcd19wid...8_AMD+FreeSync+(Adaptive+Sync)~8671_35#xf_top
 
Zuletzt bearbeitet:
Demolition-Man schrieb:
Heißt das etwa, dass eine Grafikkarte immer mindestens 47fps liefern müsste? Was passiert denn, viele Games habe ja starke fps-Schwankungen, wenn es auf einmal nur 20-30fps sind? Tritt dann automatisch wieder tearing auf? Schaltet sich freesync dann wieder ein wenn die fps steigen?
Kann man alles mit "Ja" beantworten.

LFC ist ein Feature, welches nur genutzt werden kann, wenn das obere Freesync-Limit des Monitors mindestens das 2,5-fache des unteren Limits ist. Heißt: Monitore mit Freesync-Fenster wie 30-75 eignen sich dafür.

Ich persönlich würde auch keinen Monitor ohne LFC-Möglichkeit nehmen.
 
Demolition-Man schrieb:
Bei einem Beispielmonitor steht: Adaptive Sync/​AMD FreeSync (47-75Hz)
Heißt das etwa, dass eine Grafikkarte immer mindestens 47fps liefern müsste? [...] Tritt dann automatisch wieder tearing auf?
Schaltet sich freesync dann wieder ein wenn die fps steigen?
Ja. Ja. Ja.
Aber es verträgt sich mit Vsync, das wird dann aktiv wenn aus der der Range ausfällst.

Aber es gibt Tools, wie CRU mit denen man die Range erweitern kann.
Wie weit kann man dieser Liste entnehmen.

Noch eine Zusatzfrage: Freesync funktioniert auch über HDMI? Einige günstige Monitore setzen halt drauf. Bin auch kein Fan davon, aber nur wegen einem Displayport 100€ mehr zu bezahlen, sehe ich auch nicht ein.
Nein, nur über DVI-D und DP.
 
Gibt es überhaupt FreeSync Monitore ohne DP Anschluss?
Und gibt es FreeSync Grafikkarten ohne DP Anschluss?

Wenn die Antworten auf beide Fragen 'Nein' lautet hat sich die Diskussion doch eigentlich erledigt, oder? :D
 
Erst Mal vielen Dank!

Gibt es überhaupt FreeSync Monitore ohne DP Anschluss?
Ja!
Siehe die tolle Liste weiter oben!
Und gibt es FreeSync Grafikkarten ohne DP Anschluss?
Nö! :D

Edit: Würde mich halt mal interessieren wie das aussieht, wenn man unter die "Freesync-Range fällt" wenn man z.B. mitten in einem Shooter ist.
 
Zuletzt bearbeitet:
Benutzt Freesync nicht frameverdopplung?
Also wenn die Grafikkarte unter die minimum fps sackt, sollte der Monitor seine Wiedergabefrequenz hochschrauben, dann aber immer das letzte Bild zweimal zeigen...aber weiterhin synchron....so spielt die untere frequenzgrenze eigentlich keine Rolle mehr.....bei deine Beispiel wird es aber nicht gehen, weil zweimal 46 über den 75 ist.....Ich würde einen anderen Monitor nehmen.

Edit....entnimmt man auch dem obrigen link.....:o
 
Zuletzt bearbeitet:
@Baal Netbeck
Danke für die Info, auch wenn ich diese nicht so ganz verstehe!
@all
Es ging mir darum, dass ich eventuell genug Geld zusammenkratzen könnte, um mir eine Mittelklasse Grafikkarte zu kaufen, und einen (sehr) günstigen Monitor. Bei AMD gäbe ich Freesync in dem Preisbereich dazu, bei NVidia kann man das vergessen!

Ich kann auch weiterhin mit 1680x1050 spielen. Mein Acer P223w läuft seit 8 Jahren täglich, ich glaube kaum, dass es noch viele Monitore hier im Forum gibt, die mehr Betriebsstunden auf dem Buckel haben. Wäre halt ein kleiner Bonus gewesen.

Aber ohne Monitor, wäre auch eine GTX 1070 drin, und dann wird eben per gutem alten DVI und Vsync gezockt, wie die letzten 100 Jahre! :D
 
Also wenn du noch auf einer alten Möhre mit sub Full HD zockst würde ich das Budget an deiner Stelle auch mit für einen Monitor einteilen.
 
Der Unterschied zwischen 1680x1050 und 1920x1080 hängt stark von der Größe des Monitors und deinem Abstand zu ihm ab. Mit größeren Displays nimmt die Pixeldichte ungefähr quadratisch ab. Wenn du also von einem 20'' 1680x1050 zu einem 24'' 1920x1080 wechselst, hast du eine geringe Pixeldichte und damit wirkt das Bild auf gleichem Abstand unschärfer.

Lass dir also nichts einreden und verfall bloß nicht in einen kapitalistischen Kaufrausch, nur weil dieses und jenes als "besser" oder "notwendig" beworben wird.

Liebe Grüße
fara
 
Du hast natürlich recht aber: kapitalistischer Kaufrausch, ernsthaft?

Ich würde erst mal das Budget ordentlich durchkalkulieren, und sobald es für eine eine GraKa ab einer 470 + einen ordentlichen FreeSync Monitor reicht tät ich Zuschlägen. :)
 
Naja, vielleicht ist es etwas übertrieben ausgedrückt. Aber heutzutage muss man ja ständig auf dem neuesten Stand sein und nach höchstens zwei Jahren ein neues Gerät kaufen, weil es die neuen Features x y innehält, ohne die man ja gar nicht mehr auskommen würde. Und diejenigen, die sowas nicht brauchen, werden dazu gewungen sich nach spätestens zwei Jahren etwas neues anzuschaffen, weil das vermeintlich alte Gerät dann auf mysteriöse Weise kaputtgeht.

Ich finde es schon sinnvoll mindestens zweimal darüber nachzudenken, ob man dies und jenes wirklich braucht - insbesondere dann, wenn das alte Gerät noch prächtig funktioniert.

P.S. Zwei Jahre sind jetzt eher so der Durchschnittsfall bei elektrischen Geräten. Ich gebe zu, dass es da auch Ausnahmen gibt.
 
Zuletzt bearbeitet:
Lass dir also nichts einreden und verfall bloß nicht in einen kapitalistischen Kaufrausch, nur weil dieses und jenes als "besser" oder "notwendig" beworben wird.

Auf sowas falle ich nicht mehr rein, bin viel zu alt, um jedem Trend hinterher zu jagen!

Ja aber im Ernst hier funktioniert das alles ein wenig anders!
Den Monitor bekommt mein Vater als Ersatz für seinen noch älteren 19" TFT. Die GTX 770 ist schon für meinen Kumpel reserviert.
Der bekommt diese durchaus noch brauchbare Grafikkarte geschenkt, muss/soll/darf dann aber mal wieder ne Runde mit mir am PC zocken. :D ;)
Nicht nur an seiner PS4^^

Also wie gesagt ich überlegs mir.
 
Hallo

Bitte verzeiht wenn ich mich hier mit einklinke. Ich stehe genau vor der gleichen Ausgangslage wie der TE. Danke

@ faraday

Könntest du mir bitte deine Aussage nochmals genauer erklären. Danke Demolition-Man!

Wenn du also von einem 20'' 1680x1050 zu einem 24'' 1920x1080 wechselst, hast du eine geringe Pixeldichte und damit wirkt das Bild auf gleichem Abstand unschärfer.

Wenn man sich einen neuen Monitor kauft, ändert sich ja meist der Abstand nicht. Ich habe aktuell auch nur noch das Budget für entweder eine gtx 1070, die würde dann mit meinem alten Samsung Syncmaster BW226 laufen unter 1680x1050 und 60hz.
Oder ich kann mir eine RX 480 + einen Freesync Monitor mit 144hz (Freesync 35hz bis 120hz) kaufen. Abstand sind immer ca. 80 cm.

Was soll man jetzt machen?

Besten Dank
 
Die entsprechenden Formeln findest du bei Wikipedia (basieren alle auf den berühmten Pythagoras). Die Rechnung sieht dann folgendermaßen aus:

Bei einem 20'' Monitor mit Seitenverhältnis 16:10 hast du eine Darstellungsfläche von umgerechnet ca. A=1160cm^2. Insgesamt hast du P=1680*1050=1.764.000 Pixel auf deinem Bildschirm. Das macht eine Pixeldichte von P/A=1521 Pixel pro cm^2. Das ist der entscheidende Wert. Bei einem 24'' Monitor mit 1920x1080 machst du dieselbe Rechnung und kommst auf einen Wert von P/A=1306 Picel pro cm^2. Wie du siehst ist die Pixeldichte hier niedriger. Auf gleichem Betrachtungsabstand hast du daher ein etwas schlechteres Bild. Wenn du den Betrachtungsabstand allerdings wieder erhöhst, wirkt das Bild auf dich wieder schärfer, da die Pixel für deine Augen durch den größeren Abstand "näher beieinandergerückt" sind - dh. die Pixeldichte hat sich subjektiv wieder erhöht. Dafür ist das Bild dann aber auch wieder kleiner.

Das ist auch der Grund, warum es keinen Sinn ergibt sich einen 27'' Bildschirm mit max. FHD-Auflösung zuzulegen. Das sieht dann wieder aus wie in den 90ern. :D

Liebe Grüße
fara
 
Zuletzt bearbeitet:
Bei einem 22 Zoll Monitor mit 1680x1050er Auflösung hast du eine Pixeldichte von 90ppi.
Ein 24er in Full HD bietet eine von 91ppi, also im Prinzip genau gleich.

Du hättest also effektiv kein höher aufgelöstes Bild sondern "nur" ein größeres Bild, naja und die sonstigen Vorteile welche eine höhere Frequenz und FreeSync eben so bieten.

Ich finde die Kombination aus einem relativ alten Monitor und modernen und teuren top Grafikkarten Verschwendung von Potential.
Ich würde das Geld eher in den Monitor stecken. Das Preis/Leistungsverhältnis von RX 480 und 1070 ist im Prinzip das gleiche.
 
Der ppi-Wert wird lediglich über die Pixel/Inch auf der Diagonalen berechnet. Das ist aber tatsächlich nicht der relevante Wert. Du musst stets die gesamte Fläche betrachten. Genau genommen ist es sogar ziemlicher Beschiss, wenn damit geworben wird.

EDIT: Ahh okay, mit diesem Wert kannst du Monitore vergleichen, die das gleiche Seitenverhältnis aufweisen. Da das hier nicht der Fall ist, musst du tatsächlich über die Fläche gehen.
 
Zuletzt bearbeitet:
Zurück
Oben