News „Adaptive Sync“ wird Teil von DisplayPort 1.2a

Artikel-Update: AMD geht davon aus, dass erste Monitore mit „Adaptive Sync“ in sechs bis zwölf Monaten zur Verfügung stehen werden. Grafikkarten, die Adaptive Sync nutzen werden können, sind die Radeon R9 290X, R9 290, R7 260X und R7 260 sowie die APUs „Kabini“, „Temash“, „Beema“ und „Mullins“. Die APU „Kaveri“ findet sich, obwohl sie auf dieselbe GCN-Version wie Kabini setzt, nicht in der Auflistung wieder. Die erste Generation der GCN-Architektur, und damit auch Neuauflagen wie Radeon R9 280X oder R9 270X, scheinen außen vor.
 
smilefaker schrieb:
Also ich kenne massig Leute die nur AMD kaufen.:freak:

Das ist die "mir egal" oder sagen wir mal verwandt dazu "hauptsache die günstigste Karte mit hohem FPS also Preis/FPS" Fraktion. Das ist fakt. :) Bisher hat keiner aus voller Überzeugung AMD gewünscht. Oder? Denk mal nach.

Ich hab als voller Überzeugung AMD gekauft, weil ich halt ein Fanboy bin, weiter nichts nur als reiner Fanboytum. Aber mittlerweile will ich auf HOHEM NUTZEN UND VERTRAUEN umsteigen. Nvidia ist was das angeht bisher besser dran. Das kann sich natürlich ändern. Ich wart noch 1-2 Jahre auf die Entwicklungen, es hat Zeit. ;)

Edit: Ich mag in der Hinsicht evtl. den Tunnelblick haben. Jede pro AMD Argumentation ist willkommen. Vielleicht ändert ihr ja noch meine Gefühle. Obwohl ich fast nicht mehr daran glauben kann.
Da fällt mir vielleicht noch die OpenCL Performance ein... Sonst noch was?
 
Zuletzt bearbeitet:
Man darf hier nicht Adaptive Sync mit FreeSync verwechseln.

Adpative Sync:

Adaptive Sync“ [ist] eine Technologie zur Synchronisation der Bildwiederholrate des Monitors mit den von der Grafikkarte

und im VESA Standart für DP 1.4a enthalten.

FreeSync ist eine Technology von AMD die Adaptiv Sync nutzt.

Heißt: Ob FreeSync jetzt nur AMD kann oder nicht ist vollkommen egal. Adaptiv Sync kann von jedem (Nvidia, sogar Intel) oder jedem DVD Player (48 FPS Film = 48 Hz Monitor) genutzt werden, sofern der Monitor es kann.
 
Mein Gott, wenn interessiert denn das, das AMD für einen von euch gestorben ist!
 
TNB schrieb:
Wo genau ist DisplayPort denn HDMI überlegen?

Aktuell eine höhere Datenrate und zudem lizenzfrei. Wenn man auf den ARC nicht angewiesen ist ist man bei Monitoren über FullHD mit DP wesentlich besser aufgehoben, da man mit HDMI bei vielen Typen nur 1920x1080 als max Auflösung gemeldet bekommt und größere Auflösungen über den Treiber erzwingen muss.
Der DP kann außerdem per Daisy Chanining bis zu vier 1920x1200 Displays über einen Port ansteuern.

HDMI ist halt für den Consumer- und Heimkinobereich gedacht, und genau darauf hin wurde der Anschluss optimiert. DP ist für die professionelle Anwendung wesentlich besser geeignet.
Außerdem wird DP 1.3 8k unterstützen (oder eben 3D in UltraHD).
 
Zuletzt bearbeitet:
Freesync von AMD sind einfach nur Treiber die eine offene Funktion wie Adaptive Sync nutzen.
Schon komisch dass Nvidia mit G-sync um die Ecke kommt, wenn wenige Monate später offenbar schon Monitore mit Adaptive Sync kommen und G-sync ad absurdum führen.
 
GSync braucht somit niemand, sehr gut. Für uns Verbraucher ist das doch der beste Schritt. Ich freu mich...
 
Das war aber eine schnelle Reaktion.
Wird also der Standard werden, man sicherlich dann auch mit Nvidia nutzen wird. Freut mich, wenn die Technik überzeugt, wird ein neuer Monitor gekauft!
 
Seltsam, hört sich so an, als wäre das alles schon released und getestet. Woher wisst ihr denn, dass FreeSync genauso gut wird wie G-Sync? Irgendwie geht davon fast jeder hier aus... (Es würde mich freuen, aber irgendwie kann ich das nicht glauben. Da hätte es sich Nvidia leichter machen können!)
 
Naja...

Abgesehen von Mikrorucklern bei CF/SLI-Systemen hat man doch so gut wie nie irgendwelche störenden Effekte...

Ist ja nicht so, als ob wir die ganze Zeit mit komischen Artefakten oder sonst was leben müssten...

Entweder funktioniert Freesync oder eben nicht... Ich glaube nicht, dass der Unterschied zwischen Freesync und G-Sync besonders groß sein wird...

Ich gehe davon aus, dass beides funktionieren wird und Freesync sich durchsetzt, weil es kostenlos ist und für jeden nutzbar...
 
Was doch die Frage ist: nvidia ist Mitglied bei der VESA und muss gewusst haben was dort mit DP 1.2a Standard auf den Markt kommt bzw das darüber gesprochen wurde.
Schon vor dem G-Sync release, denn immerhin entscheidet man ja sowas nicht von "heut auf morgen", gerade bei der Anzahl der VESA Mitglieder. Hat man also bei nvidia noch schnell mit G-Sync versucht die Kuh (Kunden) zu melken, bevor die neuen Spezifikationen bekannt werden. Daher vermutlich die eigentlich reine Software Lösung des G-Sync, weil das Modul ja kein spezialisierter Chip ist, sondern ein frei programmierbarer FPGA Chip mit 768MB Speicher.

Klingt für mich auf jeden Fall nach schnell noch ein paar Kröten absahnen und noch Marketing machen bevor dann der freie Standard als A-Sync herauskommt... :rolleyes:
 
fanatiXalpha schrieb:
@hrafnagaldr: könnte das ein grund sein, warum ich beispielsweise keine höhere auflösung per downsampling an meinem Monitor erzwingen kann?
Jap entweder über DVI oder Displayport Downsampeln.
 
Beide Techniken sind ja interssant, egal ob adaptive-sync oder g-sync. Aber der der Mensch hat halt seine Augen, die sind organisch und leider nur Leutz mit viel Asche können sich da- aber weil ja das Leben insgesamt gerecht ist, nur Updates mit Einschränkungen holen.

Das menschliche Auge gibt sich mit etwa 30 Bilder pro Sekunde zufrieden. Wenn dieser Bereich bei der Bildwiedergabe nicht unterschritten wird, nimmt unser Gehirn das als flüssig wahr. Na ja, es gibt seit langem auf dem PC Techniken, die diesem Umstand Rechnung tragen.
Das olle V-synq funktioniert ganz gut. Das adaptive V-synq von NV hat am Anfang nicht immer befriedigend funktioniert. Wie das heute ist, weiß ich nicht. Diese Technik hat aber den Stromverbrauch der Grafikkarten stark reduziert, wie auch die hervorragend funktionierende variable Frequenzsteuerung der GPU je nach Last. Das ist meiner Meinung nach der größte Wurf in der Energiesteuerung von Grafikkarten bei der Kepler-Architektur.

Da ich Anfangs vom variablen V-synq nicht wirklich überzeugt war, nutze ich seitdem den Framelimiter, bei welchen man via NV-Inspector für jedes Spiel die maximale Framerate einstellen kann. Mit drei Klicks habe ich kein Tearing mehr und die GPU läuft sehr energieeffizient.

Deswegen sehe ich von beiden Herstellern hier eher den Nutzen für die hauseigene Marketing-Abteilung, aber halt nur marginalen Nutzen für uns User.
 
PiPaPa schrieb:
Klingt für mich auf jeden Fall nach schnell noch ein paar Kröten absahnen und noch Marketing machen bevor dann der freie Standard als A-Sync herauskommt... :rolleyes:
Kröten aus der Vielzahl aktueller Gsync Monitore? Lächerlich. Es klingt nach Mantle und Direct3D12. Keine Panik, das ist freier Wettbewerb.

Die Frage ist nur in wie weit es dem Kunden etwas nützt, wenn alte Karten Karten mit alten GPUs, bereits heute ausgeschlossen werden. Da liegt der Verdacht nicht nah, das die Konkurrenz ebenso einen Bogen um Adaptive Sync machen wird.
 
Sontin schrieb:
Les dir die FAQ durch: Um über Adaptive Sync das selbe zu machen, muss eine propritäre Lösung erstellt werden:
Project FreeSync is a unique AMD hardware/software solution that utilizes DisplayPort™ Adaptive-Sync protocols to enable user-facing benefits: smooth, tearing-free and low-latency gameplay and video.
Mit anderen Worten, FreeSync steuert die Adaptive Sync Funktion so, dass ein Bildwechsel stattfindet, sobald ein Frame fertig gerendert ist. Was daran jetzt zwingend proprietär sein soll, ist mir unverständlich.

tic-tac-toe-x-o schrieb:
Hab bisher keiner gesehen, der sich nur AMD wünscht. Du etwa?
Ich wünsche mir nur AMD, weil sie die einzigen sind, die ernsthaft an Open-Source-Linuxtreibern für ihre Hardware arbeiten. Von NVidia bekommt die Community nur sporadisch Unterstützung und selbst bei Intel liegen noch ein paar Leichen im Open-Source-Keller (ich sag' nur GMA500).

PiPaPa schrieb:
Was doch die Frage ist: nvidia ist Mitglied bei der VESA und muss gewusst haben was dort mit DP 1.2a Standard auf den Markt kommt bzw das darüber gesprochen wurde.
Noch schlimmer: NVidia wusste, dass Adaptive Sync bereits Bestandteil des eDP 1.2 Standards war. Anstatt diesen Standard dann auf DP zu übertragen, haben sie G-Sync entwickelt. Erst AMD hat es der VESA zur Standardisierung vorgeschlagen.
 
tic-tac-toe-x-o schrieb:
Edit: Ich mag in der Hinsicht evtl. den Tunnelblick haben. Jede pro AMD Argumentation ist willkommen. Vielleicht ändert ihr ja noch meine Gefühle. Obwohl ich fast nicht mehr daran glauben kann.
Da fällt mir vielleicht noch die OpenCL Performance ein... Sonst noch was?

Naja es gibt ja einige Gründe die für AMD sprechen, und mir fallen nur wenige halbwerzige für nvidia ein.

Pro AMD:
- für mich der entscheidende Super offene Linuxtreiber der Linuxupdates völlig problemlos machen und ich fühl mich nicht so wie wenn ich ständig ein NSA-Rootkit installiert hätte (zumindest potentiel und wer das für Paranoia hält kann gerne nach Sony-rootkit googlen)
- sie setzen fast ausschließlich auf offene standards
- es gibt auch onboard gpus bzw apus, gibts bei nvidia nicht
- dank Mantle und eventuell Opengl verbesserungen die jetzt auch mal in die Pötte kommen dank dem Erdbebben das Mantle ausgelöst hat, kommen wir vielleicht wieder zu den Punkt zurück wo Grafikkarten die flaschenhälse sind und man keinen 1000,- Core i7 kaufen muss um seine 300,- Grafikkarte ausnutzen zu können (Beispiel Planetside 2).

Pro Nvidia:
- Physik-effekte in einigen Spielen


ZU DEN ANDEREN:

also 1-2 haben ja spekuliert nach dem Motto wenn Nvidia (und Asus?) das nicht hin kriegt, wieso sollte es dann mit Freesync klappen.

Dazu kann ich nur sagen das das jetzt ein offener Standard der in Displayport Standard mit drin ist. Also spätestens mit DP 1.2b or 1.3 MUSS das jeder drin (wahrscheinlich) haben, das setzt die Firmen sehr unter Druck wenn der Konkurent ein nur 10,- teureres Gerät bietet aber mit 1.3 statt 1.2 Standard werden die meisten wohl zu dem 1.3 greifen, besonders wenn 1.3 dann vielleicht noch andere vorteile bringt, ein wir unterstützen 1.3 teilweise aber müssen es noch 1.2 nennen weil wirs nicht voll unterstützen, ist den Kunden kaum zu vermitteln.

Außerdem setzte sich deshalb wohl auch der Nvidia standard nicht durch, also ein Monitorhersteller müsste am Hart umkämpften Markt den Monitor speziel an Nvidia Only User vermarkten, da die anderen natürlich kein Interesse haben 10,- aufpreis für kein Zusatzfeature aus zu geben. Da aber schon 90% der Leute wahrscheinlich Intel-Grafik benutzen, lohnt es sich natürlich für die wenigsten Hersteller speziel ein keine Ahnung 6-7% Marktsegment zu bedienen. Wieos sollte man seinen potenziellen Kundenkreis künstlich auf 6% beschränken?

Zu der Aussage: "Keiner weiß ob es frei ist", bin zu faul da jetzt ne genaue Quelle zu Suchen aber Displayport selbst ist Lizenzkostenfrei, wenn die also dieses in ihren Standard integrieren, werden sie das nur machen wenn es natürlich auch lizenzkostenfrei und für jeden zugänglich ist. Anders gesagt das ist ein reiner DP standard nun, AMD ist nur so nett gewesen das vor zu schlagen, und sie werden es als 1. unterstützen vermutlich, ansonsten werden die keinerlei rechte mehr daran haben. Vielleicht haben sie noch irgend ein Patent aber das müssten sie dann schon allgemein zugänglich ohne einschränkungen per Vertrag oder sowas gestellt haben, damit das in DP aktzeptiert wird.

Man möge mich berichtigen, aber kann mir nicht vorstellen das die Organisation grad einen völlig offenen lizenzkostenfreien Standard eingestampft haben und es jetzt durch eine art AMD lizensierten Verkaufsstandard draus gemacht haben.
 
Zurück
Oben