News FreeSync bei Nvidia ist „sehr unwahrscheinlich“

1. Das was er geschrieben hat ist natürlich Blödsinn. Er würde gerne tripple buffering erklären, kennt sich aber nicht aus.

2. Sicher wird gelöscht... Deine Erklärung (auch die in englisch) erklärt Double Buffering... les bitte 2 Absätze weiter, da wird tripple buffering erklärt.

Bei jedem refresh wird der front buffer 1 mit backbuffer 1 getauscht

Bei jedem fertig gestelltem frame wird der backbuffer 1 mit 2 getauscht (und was im 1er war eben gelöscht).

Gerechnet wird nur auf dem backbuffer 2 (es wird ja wirklich beim rechnen in den backbuffer 2 rein geschrieben bis es fertig ist)...

Und zu deiner frage in rot, ja die Maus Infos usw. werden mit übergeben. Hab ich also bei 10,5 ms (laut meinem Beispiel) auf die linke Maustaste gedrückt damit man beispielsweise schießt, so wird diese information im Frame welches bei 11 ms berechnet wird bereits enthalten sein. Bei dem Frame welches bei 0 ms (bei Double buffering wäre die info ja von 0 ms) hab ich ja noch nicht gedrückt und daher wird das Bild das ich zum Zeitpunkt 16,6 ms angezeigt bekomme auch noch keine Informationen dazu enthalten.

Extremfall:

Es passiert im Spiel etwas zum Zeitpunkt 10,99. Das Auto vor mir in einem Rennspiel bremst (bremslichter gehen an) -->

Bei tripple buffering bekomme ich das 5,6 ms später angezeigt (da die ingame Info vom Zeitpunkt 11 ms genommen wird und diese beim monitor refresh bei 16,6 ms ausgegeben wird) und ich kann ab da reagieren.

Bei double buffering würde diese Information erst zum Zeitpunkt 16,6 ms (wenn das nächste Bild berechnet wird) in ein Bild gerechnet werden und erst zum Zeitpunkt 33,2 ms ausgegeben werden! 22 ms delay bis zur Ausgabe der Info!!



Hier noch was in englisch für dich: "Due to the software algorithm not having to poll the graphics hardware for monitor refresh events, the algorithm is free to run as fast as possible. This can mean that several drawings that are never displayed are written to the back buffers. This is not the only method of triple buffering available, but is the most prevalent on the PC architecture where the speed of the target machine is highly variable."
 
Zuletzt bearbeitet:
paul1508 schrieb:
1. Das was er geschrieben hat ist natürlich Blödsinn. Er würde gerne tripple buffering erklären, kennt sich aber nicht aus.
Ja klar. Ich hab schon Spiele mit Double- und Tripple-Buffering im Mode X geschrieben, da hast du noch in die Windeln geschissen, aber laber du mal.
 
Nun ja, dann wüsstest du aber das der buffer nur virtueller Speicher im vram ist und nicht wie du glaubst im gsync Modul (ich mach mich nass vor lachen, gottseidank hab ich Windeln an)

Ist jetzt auch nicht böse gemeint mit "kennt sich aber nicht aus". Aber so wie ich das erklärt habe funktioniert eben tripple buffering. Und so funktioniert es auch gut. Kein Grund da irgend einen Buffer in einen Monitor einzubauen.

Gsync und freesync sind nur für fps < Hz interessant. Das ist die Quintessenz. Alles darüber ist entweder Tripple oder Doublegebuffertes Vsync. Bei Tripplegebuffertem vsync gibts kein Problem. Aber wer bekommt schon in Grafik-intensiven spielen mehr als 120/144 Hz? Ein Bruchteil.
 
Zuletzt bearbeitet:
Normales Buffering per Treiber findet in der Tat im VRam statt. Wovon ich hier aber die ganze Zeit rede ist ein Buffering, dass im G-Sync Modul stattfindet. Das hat ebenfalls 768 MB Speicher.
Das Modul nimmt ganz sturr einfach alle Bilder der Karte ungepuffert entgegen. Für den Treiber sieht das so aus als ob dort ein Monitor mit einer unbegrenzten Bildwiederholrate angeschlossen wäre.
Anschließend übernimmt der FPGA des Moduls allerdings das Buffering und die Synchronisation der angenommenen Frames, sodass der Monitor nur mit den nötigen 60 fps versorgt wird die er auch darstellen kann.

Das Buffering muss doch nicht im Treiber auf dem PC stattfinden. Das ist doch kein Zwang. Das kann genau so gut ein Stück weiter hinten stattfinden im G-Sync Modul.
Das ist eben der Unterschied zu FreeSync. Dort muss das Buffering im Treiber stattfinden, da dort die entsprechende Hardware im Monitor fehlt.
 
paul1508 schrieb:
Nun ja, dann wüsstest du aber das der buffer nur virtueller Speicher im vram ist und nicht wie du glaubst im gsync Modul (ich mach mich nass vor lachen, gottseidank hab ich Windeln an)

Ist jetzt auch nicht böse gemeint mit "kennt sich aber nicht aus". Aber so wie ich das erklärt habe funktioniert eben tripple buffering. Und so funktioniert es auch gut. Kein Grund da irgend einen Buffer in einen Monitor einzubauen.

Gsync und freesync sind nur für fps < Hz interessant. Das ist die Quintessenz. Alles darüber ist entweder Tripple oder Doublegebuffertes Vsync. Bei Tripplegebuffertem vsync gibts kein Problem. Aber wer bekommt schon in Grafik-intensiven spielen mehr als 120/144 Hz? Ein Bruchteil.

Dem ist nichts hinzuzufügen ausser, dass GSync max 144 Hz unterstützt und AdaptiveSync von der VESA max. 260 Hz
Ergänzung ()

noxon schrieb:
Das Modul nimmt ganz sturr einfach alle Bilder der Karte ungepuffert entgegen. Für den Treiber sieht das so aus als ob dort ein Monitor mit einer unbegrenzten Bildwiederholrate angeschlossen wäre.
Anschließend übernimmt der FPGA des Moduls allerdings das Buffering und die Synchronisation der angenommenen Frames, sodass der Monitor nur mit den nötigen 60 fps versorgt wird die er auch darstellen kann.
Und das alles mit weniger Inputlag und Latenz?... das solltest du doch bemerken wenn du mal nachdenkst. Und wozu soll das gut sein wenn die GPU 3 mal soviel Strom verbraucht?
 
@noxon: Was ich eben nicht verstehe ist, worin da jetzt der große Vorteil bestehen soll. Ein Bildpuffer braucht für FHD weniger als 10MB Speicher. Das kanns also schon mal nicht sein. In der Theorie könnte der Bildaufbau evtl. schneller gehen, wenn die Anbindung zwischen Display und G-Sync Modul schneller ist als die HDMI/DP-Schnittstelle (und das Panel schnell genug ist), aber auch das fällt mir schwer zu glauben.

Hat G-Sync denn im Bereich zwischen 0Hz und Max-Monitor-Refresh-Rate irgendwelche Vorteile?
Ergänzung ()

Daedal schrieb:
Die Behauptung es würden 180 Frames gerendert und dann jeder dritte nur dargestellt und auf diese Weise ein inputlag verkleinert ist einfach Humbug.
Genau das ist es aber, was Tripple Buffering (als Nebeneffekt) ermöglicht. Denks dir einfach so: dein System ist schnellgenug um die Spielewelt in 5,5ms-Schritten zu simulieren, du bekommst die Änderung aber immer nur in 16,6 ms Schritten zu Gesicht.
Solange es aber nicht irgendwelche Effekte gibt, die nur 11ms oder weniger andauern, geht ja deshalb trotzdem keine Ereignisse verloren. Du siehst es nur nicht mit der gleichen zeitlichen Auflösung in der es berechnet wurde - Eigentlich genau das gleiche, wie wenn du dir ein 12Mpixel Bild auf einem FHD-Monitor ansiehst.
 
Doch jetzt nicht noch mal...es geht nicht um Triplebuffering...lies wenigstens diese Seite von Anfang an. Es geht darum, dass angeblich das ganze im GSync Modul passiert.
 
Daedal schrieb:
Und das alles mit weniger Inputlag und Latenz?... das solltest du doch bemerken wenn du mal nachdenkst. Und wozu soll das gut sein wenn die GPU 3 mal soviel Strom verbraucht?
Über Sinn oder Unsinn kann man sicher streiten - G-Sync bzw. Tripple Buffering erzwingen ja nicht, dass die Graka ungebremst läuft, sondern geben einem eben nur diese Möglichkeit ohne dabei Tearing fürchten zu müssen.
Das Tripple Buffering aber den Input-Lag reduzieren KANN ist ne Tatsache. Richtig ist aber auch, dass ein weiterer Zwischenspeicher die Latenz erhöhen KANN. Welcher Effekt jetzt genau überwiegt hängt von den technischen Details und genauen Zahlen ab und ohne die zu kennen kann man nur spekulieren oder messen (kenn da jemand nen guten Artikel/Test)?

So oder so, wie paul1508 schon sagte sind wir uns glaube ich alle einig, dass das Verhalten jenseits der maximalen Monitorrefreshrate nicht das interessante an G oder Freesync ist.

Disclaimer: Ich habe nicht die geringste Ahnung, wie G-Sync implementiert ist und ob noxon mit seiner Darstellung recht hat. Ich sage nur, dass es technisch durchaus möglich ist und Sinn ergibt.
Ergänzung ()

Aus sicht des Spiels und des Spielers sollte es völlig irrelevant sein, ob TB in der Graka oder im Bildschirm stattfindet. Beides sollte im Wesentlichen den gleichen Effekt haben. Wie ich schon geschrieben habe kann ich mir ja auch nicht vorstellen, dass die G-Sync Variante irgendeinen Vorteil bringt, aber Nachteile kann ich darin auch nicht erkennen.
 
Wie soll es technisch möglich sein einen zusätzlichen Speichervorgang und Lesevorgang vor dem weiterleiten an den Monitor ohne zusätzliche Latenz zu bewerkstelligen? Und vor allem welchen Sinn soll das ergeben wenn man das auch völlig ohne diesen zusätzlichen Zwischenspeicher kann?
 
noxon schrieb:
Das Modul nimmt ganz sturr einfach alle Bilder der Karte ungepuffert entgegen. Für den Treiber sieht das so aus als ob dort ein Monitor mit einer unbegrenzten Bildwiederholrate angeschlossen wäre.

Nein, die fps bleiben bei 144 Hz (bzw. dem Maximum des jeweiligen Panels) stehen.

http://www.blurbusters.com/gsync/preview2/

An den Latenzmessungen von CS:GO sieht man auch deutlich, dass der Input Lag steigt, wenn man das Spiel bis an die Obergrenze des Monitors laufen lässt. Nur, wenn man die fps vom Spiel aus mit etwas Sicherheitsabstand kappt, ist der Lag so niedrig wie ohne Vsync.

Daedal schrieb:
Dem ist nichts hinzuzufügen ausser, dass GSync max 144 Hz unterstützt und AdaptiveSync von der VESA max. 260 Hz

Falsch.

http://www.anandtech.com/show/7582/nvidia-gsync-review

The upper bound is limited by the panel/TCON at this point, with the only G-Sync monitor available today going as high as 6.94ms (144Hz). NVIDIA made it a point to mention that the 144Hz limitation isn’t a G-Sync limit, but a panel limit.

Übrigens fällt G-Sync nur zwischen 30 und 25 fps auf Vsync zurück, darunter funktioniert es wieder normal:

http://www.pcper.com/reviews/Graphics-Cards/NVIDIA-G-Sync-DIY-Upgrade-Kit-Installation-and-Performance-Review/Impressions

Der nächste Aussetzer dürfte dann bei 15 fps liegen, wenn der zweite Autorefresh ausgelöst wird.
 
JMP $FCE2 schrieb:
Du meinst Nvidia hat behauptet? Aha....Ich denke auch Anand bekommt nicht immer die Wahrheit gesagt wenn es dem Marketing passt.

Freesync_Vs.jpg


Wenn du eine Quelle hast die besser als diese ist, dann immer her mit.
 
Glaubst Du, dass die AMD-Marketingabteilung immer die Wahrheit sagt ? Selbst wenn es so ein "hartcodiertes" Limit gäbe (was keinen Sinn macht), würde Nvidia nichts daran hindern, das eigene proprietäre Protokoll nachtäglich zu erweitern, wenn schnellere Panels verfügbar sind.

Ich warte übrigens nach wie vor gespannt auf die ersten unabhängigen Freesync-Tests. Diese Hinhaltetaktik von AMD wird langsam peinlich.
 
AMD baut keine Monitore. Und was NVIDIA nächstes Jahr macht weiss ich auch nicht. Schnellere Panels gibt es schon lange. Stand heute ist das eben Fakt.
 
G-sync ist letztendlich ein und dasselbe wie Adaptive Sync, aber bitte nicht weitersagen.;)
Deswegen auch die Aussage von Quacksalber Petersen " Never say Never"
 
Aber in Laptops die mit eDP angebunden sind. Dort wurde dies ja auch mit einer GTX980m auf einem MSI Notebook demonstriert. Und da wird AdaptiveSync seit Jahren zur Stromersparnis genutzt mit Panels die Selfrefreh beherrschen. Nur deshalb muss man auf Desktop Monitor warten, da die meisten Panels das nicht können - einige allerdings schon was ja auch AMD veranlasste zu sagen, dass ein Firmware Update ausreichen würde. Dass die Monitorhersteller davon nichts wissen wollen ist ja wohl klar. Lieber neuen Monitor verkaufen als alten kostenlos upgraden.
Ergänzung ()

Hier die Bestätigung, dass 2 Scaler verbaut werden müssen wenn ausser DP noch andere Anschlußarten am Monitor vorhanden sein sollen:
http://www.overclock.net/t/1538208/nvidia-g-sync-free-on-dp-1-2-monitors/90#post_23477425
I wouldn't need to "take the G-SYNC module out" anyway with the BenQ XL2420G because it has two scalars - one dedicated for G-SYNC (accessed via DisplayPort only) and the other one dedicated to DVI-D; HDMI. If it comes down to it - I'd test it with DVI-D but I do not believe he's ever said it works via DVI-Dual Link.

Im dortigen Thread bestätigen auch mehrere User dass sie ASync auf Nvidia Laptops aktivieren konnten.
From what we (with laptops) over on NBR have discovered, it seems to work with non-optimus, single-GPU, 900M series laptops using eDP connectors.
Ergänzung ()

Nvidia bestätigt GSync auf Laptops ohne GSync Modul, sprich Adaptive Sync, für alle kommenden GSync Laptops.
Ergänzung ()

Nun ist es amtlich. Getestet von PCPer und es funktioniert. nachgefragt bei Nvidia und die bestätigen, dass es in Laptops GSync ohne GSync-Modul geben wird.
http://www.planet3dnow.de/vbulletin...Nvidia-nutzt-AdaptiveSync-der-VESA-fuer-GSync
 
Also wenn es wirklich stimmen sollte, daß das G-Sync-Modul nur eine Attrappe ist, war mir das jetzt definitiv ein Schwindel zuviel und ich werde mir dann in Kürze wohl doch eine AMD statt einer Nvidia kaufen.
Nachdem die (immer noch viel zu teuer verklaufte) GTX 970 nur 3,5GB RAM hat, und die GTX 960 mit 2GB komplett raus fällt, hat Nvidia eh nichts aktuelles mehr, was wirklich attraktiv wäre.

Wann kommen denn neue AMD-Karten?
 
Was ist daran "Schwindel", einen mit dieser Funktion noch nicht existierenden eDP-DP-Protokolladapter selbst zu basteln und die Kosten des für Kleinserien nötigen teuren FPGAs an den Käufer weiterzugeben ? Bei Notebooks gibt es die zusätzliche DP-Verbindung und den in den Monitor verlagerten Scaler nicht.
 
Nur gibt es kein GSync-Modul und es funktioniert mit einer GTX980m mit AdaptiveSync. Wozu braucht man es dann im Desktop?
 
Wenn eDP Adaptive Sync unterstützt, es aber keinen Scaler-Chip für Desktopmonitore gibt, der diesen Befehl bis zum Panel durchreicht, dann hat man nichts davon. Will man dann schnell eine funktionierende Lösung, muss man sich so einen Scaler selbst basteln. Und bei kleinen Stückzahlen ein teures FPGA verbauen.
 
Zurück
Oben