Notiz Nvidia G-Sync: Kompatible Displays mit Adaptive Sync im Überblick

goman schrieb:
Nur am Rande, vielleicht sollte man das das Tearing nicht immer verteufeln. Das ist ja, auch nach deiner Lesart nichts weiter als die Fähigkeit des Monitors den alten Bildaufbau zu unterbrechen und sich zugunsten der Realtime (die nur die GPU kennt) mit dem neuen Bild weiterzumachen.

Tearing ist eine "Entscheidung" der GPU, der Monitor macht bei Vsync on und off genau das gleiche, nämlich in einem festen, vorgewählten Takt Bilddaten entgegenzunehmen, und zwar immer zeilenweise von links nach rechts, und von oben nach unten. Also das, was Monitore/Fernseher seit mehr als einem halben Jahrhundert machen.

Die GPU berechnet ein neues Bild unsichtbar in einem zweiten Bildspeicher (Double Buffering), und wenn es fertig ist, wartet sie entweder, bis das vorherige Bild bis zur letzten Zeile an den Monitor übertragen ist (Vsync on), oder schaltet während der Übertragung den Bildspeicher um (Vsync off). Zeilen- und Spaltenzähler zählen dabei einfach weiter. Wird z.B. nach Zeile 100 und Spalte 200 der Bildspeicher umgeschaltet, wird die Übertragung mit Zeile 100 und Spalte 201 des neu berechneten Bildes fortgesetzt.

Vorteil ist, dass der "alte" Bildspeicher sofort wieder frei ist, und die GPU ein neues Bild berechnen kann.
 
JMP $FCE2 schrieb:
Tearing ist eine "Entscheidung" der GPU, ...
… wird die Übertragung mit Zeile 100 und Spalte 201 des neu berechneten Bildes fortgesetzt.

Sicher geht da einen Menge über die Einbahnstraße DisplayPort (sagt VESA Norm).

Bild und Statussignale, auch Daten, die nichts mit dem Bild zu tun haben und das alles verschlüsselt nach HDCP. Die Bildinformation wird aber nicht linear als Zeile, sondern ähnlich MPEG als Random Cluster ausgegeben um Bildstörungen durch Daten- oder Übertragungsfehler zu eliminieren. Sicher ist da auch ein New oder Reset Code dabei, wenn er zu früh kommt, Tearing verursacht. Das HDCP Decoding und die Umwandlung vom VESA Videostandard zum Panel Controller findet im Monitor statt.

Wenn sich die GPU um das Panel kümmern müsste, würde kein HDMI- Splitter mehr funktioniere, denn da kann ich 10 unterschiedliche Monitore anschließen und meistens funktioniert das auch.

Dem Monitor ist es egal ob die Daten von einem Sat Receiver, DVR oder Computer kommen, Hauptsache er kennt das Format, dass aus einem Port kommt. Der Karte ist es auch egal ob ihr Signal von einem Monitor oder Recorder verarbeitet wird. Beim PC redet noch das Betriebssystem Windows dazwischen, was auch nicht immer hilfreich ist. Letztendlich ein Wunder, dass das alles überhaupt funktioniert.
 
Zuletzt bearbeitet:
Tearing gab es auch auf Röhrenmonitoren, und es entsteht dadurch, dass die GPU während der laufenden Bildübertragung den Bildinhalt aktualisiert. Selbst auf dem C64 konnte man schon beide Varianten programmieren, also unsynchronisierte Bildupdates mit Tearing, oder nach Vsync getaktet ohne Tearing.

Warum sollte irgendein ominöses Reset-Signal dafür genutzt werden, wenn das Ergebnis genauso schlecht aussieht, wie es das ohne Vsync schon immer tat ?
 
Bildfehler gab es schon immer. Aber ein HDMI Port hat nichts mehr mit der Technik von Röhrenmonitoren zu tun.
Digital wird nicht in Zeilen oder Pixeln übertragen, sondern in Datenpaketen, die sogar mehrere Bilder enthalten könne.
Die Technik mit HDMI/ DP zur digitalen Bildübertragung ist ursprünglich auch nicht für Gamer gemacht, sondern sollte hauptsächlich kommerzielle, geschützte Inhalte, wie z.B. Blue Ray über HDCP auf einem Monitor darstellen.

Dann kommt ein Zocker und will 200 fps bei 4k. Die Hersteller von Grafikkarten und Monitore sagen, unsere Hardware schafft das. Die Schnittstelle nach VESA Norm sagt nein.
 
Zuletzt bearbeitet:
DVI/HDMI/DP ohne Adaptive Sync hat mit den analogen Formaten gemein, dass eine feste Refreshrate und Auflösung vorher vereinbart wird, und dass auch die Datenübertragungsgeschwindigkeit daran angepasst wird.

In diesem starren Raster ist kein Platz für irgendeinen Reset, der Monitor erwartet einen kompletten Frame. Und den bekommt er auch, nur der Inhalt kann eben während der laufenden Übertragung wechseln.
 
goman schrieb:
Digital wird nicht in Zeilen oder Pixeln übertragen, sondern in Datenpaketen,

Das ist so nicht ganz richtig. Sowohl DVI-D, HDMI als auch DisplayPort übertragen einen RAW Stream, keine Datenpakete. Daher wird auch die hohe Bandbreite benötigt. (HDMI 2.x kompatible Kabel mit bspw. 18Gbit/s.)
 
Was ist nach deiner Meinung RAW Stream?
 
Zuletzt bearbeitet:
Was heißt hier "meiner Meinung nach"!? Es ist ein unkomprimierter Datenstrom.
 
tackleberry schrieb:
Wegen dem Aufpreis für G-Sync, den ich bezahlt habe?

Naja ist hart, aber... Selber "Schuld". Dass die "Gefahr" besteht, war ja von vornherein klar, wenngleich nicht unbedingt sehr wahrscheinlich, wenn man sich nVidias "Track Record" ansieht. Aber irgendwann muss sich selbst der grüne Riese einem Standard beugen.
 
MaverickM schrieb:
Was heißt hier "meiner Meinung nach"!? Es ist ein unkomprimierter Datenstrom.

Neue Karten haben DisplayPort 1.4
DisplayPort 1.4 wurde am 1. März 2016 mit unverändertem Übertragungsmodus veröffentlicht, mit der Unterstützung für Display Stream Compression 1.2 (DSC).
Für 4K UHD (3.840 × 2.160 Pixel) und 12 Bit-HDR sind Bildwiederholungsraten bis 240 Hz möglich.

Bei DSC handelt es sich um eine verlustbehaftete Kodierung mit einer maximalen Kompressionsrate von 1:3.
Die Kompression soll visuell nicht sichtbar sein.
 
Zuletzt bearbeitet:
Ja, und weiter? Das trifft nicht auf HDMI zu. Und DSC nutzen nur ein Bruchteil (Wenn überhaupt bisher?) aller Geräte. Sowohl bei DVI, HDMI als auch DisplayPort ist der normale Übertragungsweg der des unkomprimierten Datenstroms.
 
Das da oben erinnert mich ein wenig an das Gerede von sogenannten Fachverkäufern aus dem Media Markt.

Eigentlich ist der Grund für DP 1.4 mit DSC neben 8k TV, die hohen Fps beim Gaming in UHD erst möglich zu machen.

DisplayPort 1.4 gab es schon für die NVIDIA GTX 1080. Wir haben jetzt 2019 mit NVIDIA RTX, 10 Bit Farbtiefe und Monitore mit HDR, die weit über 100 Hz schaffen. Das alles bringt aktuelle Gaming-Hardware sehr wohl in den Grenzbereich.

Ich dachte wir sind hier im Computer Base Forum zum Thema G-Sync Kompatible Displays mit Adaptive Sync. Wer glaubt, durch eigene Fantasien die technischen Normen ersetzen zu können, trifft falsche Kaufentscheidungen und wir natürlich Probleme, mit seiner Hardware, das fängt beim Kabel schon an, nicht lösen können.
 
Zuletzt bearbeitet:
Dann zeig mir doch mal, welcher der Monitore in der Liste tatsächlich DSC benutzt. (Nicht, dass das für mein Zitat einen Unterschied machen würde...)
 
Zurück
Oben