News Acer fährt zweigleisig: Nach G-Sync kommt FreeSync

berkeley schrieb:
G-Sync wird es höchstwahrscheinlich nicht mehr lange geben (bzw. nur noch exklusiv/vereinzelt). Selbst Nvidia lässt sich die Option auf AdaptiveSync offen. Zudem "funktionieren" Nvidias Treiber schon ohne G-Sync Module (quasi AdaptiveSync). Damit ist klar, in welche Richtung es gehen wird.

Quelle?
 
Da ich eigentlich freie Standards unterstützen möchte, kommt für mich auch nur FreeSync infrage. Ausserdem steht für Mitte/Ende des Jahres eh ein Monitor und Grafikkartenkauf an, von daher kann ich es nur begrüssen.
 
Flowerpower77 schrieb:
Freesync und Gsync werden am Ende gleichviel kosten. Es war klar das Freesync nicht billiger wird. AMD hat sich, wie üblich, an nVidia orientiert. Und dann auch noch ein igitt Panel TN. Wenigstens gibts bei nVidia bald ein IPS Panel mit Gsync von ACER! Steht auf meiner Einkaufsliste.
Warum schreibst du so eine unlogische Begründung? AMD verdient nichts an Adaptiv-Sync, es ist ein VESA Standard. Nvidia verdient an G-Sync, weil sie ein Modul für G-Sync verkaufen. Also Quatsch hoch 10 den du da von dir gibst.
Zudem wird es IPS Monitore sowohl mit Adaptiv als auch mit G Sync geben.
Du hast dich also wie üblich an den nicht informierten Usern orientiert.
 
Zuletzt bearbeitet:
AMINDIA schrieb:
Warum schreibst du so eine unlogische Begründung? AMD verdient nichts an Adaptiv-Sync, es ist ein VESA Standard. Nvidia verdient an G-Sync, weil sie ein Modul für G-Sync verkaufen. Also Quatsch hoch 10 den du da von dir gibst.
Zudem wird es IPS Monitore sowohl mit Adaptiv als auch mit G Sync geben.
Du hast dich also wie üblich an den nicht informierten Usern orientiert.

Adaptiv Sync ist Vesa Standard. Das stimmt. Aber FreeSync nicht. Jetzt zeigt mir mal bitte jemand die Quelle in der steht das FreeSync Quelloffen und ohne Lizenzgebühr ist.
 
Freesync nennt das AMD in ihren Treiber. Dieser Treiber mit der Freesync Option nutzt Adaptiv-Sync.
Es braucht also keine offene Quelle und AMD verlangt für ihre Treiber keine Lizenzgebühren, die sie dann AMD stellen.
Nvidia verkauft das G-Sync Modul an die Monitor Hersteller, ergo zusätzliche Kosten für diese. AMD hat also keinen Einfluß darauf welche Preise die Hersteller für Monitore mit DP 1.2a abrufen werden und AMD wird auch niemals einen Cent dafür bekommen.
 
Zuletzt bearbeitet:
dookytek schrieb:
Was hat es denn mit dem Treibersupport von AMD auf sich? Ich habe seit Jahren AMD und bin wunschlos glücklich, während bei Freunden von mir eine NVIDIA nach der anderen Black Screens verursacht nach einem Treiberupdate. Was ist denn mit den Treibern nicht in Ordnung? Kann mir das mal jemand erklären? Weil ich lese immer den gleichen mist aber keine Begründung.

der liebe Handysurfer hatte wohl vor 5+ Jahren mal schlechte Erfahrungen mit ATI gemacht und sieht das jetzt als in Stein gemeißelt an ;)
damals war es aber auch wirklich so, dass die ATI/AMD-Treiber grütze waren im vergleich zu NV, das hat sich heutzutage aber ziemlich angeglichen - privat kann ich nichts schlechtes über meine 290-treiber berichten und auch beruflich kann ich für die Fire bzw Quadrokarten eine ähnliche Treiberqualität bestätigen
 
Gibts denn nicht auch langsam mal Testgeräte von den Monitorherstellern damit Fachmagazine Vergleichstests machen können? Ein Blick auf den Kalender und man sieht, dass bald März ist.

Da böte es sich doch an, aml langsam mit Tests die potentiellen Käufer zu wirklichen Käufern zu machen. Vielleicht könnte die Redaktion ja auch mal was dazu sagen. Vielleicht ob schon Testgeräte da sind, bzw. für Tester angekündigt wurden.

Bald gibts die Monitore, aber immer noch keine Grundlagen auf denen man seine Kaufentscheidung treffen kann.
 
Flowerpower77 schrieb:
Freesync und Gsync werden am Ende gleichviel kosten. Es war klar das Freesync nicht billiger wird. AMD hat sich, wie üblich, an nVidia orientiert.
AMD hatte bis auf die Standardisierung nichts mitzureden und kassiert keine Lizenzgebühren. Insofern ist das Unfug.

Adaptive Sync und damit auch Freesync gibt es bereits jetzt schon günstiger als Gsync:
ASUS ROG Swift PG278Q - 692€
BenQ XL2730Z - 669€
Und das obwohl der BenQ noch nicht einmal gelauncht ist.
 
DocWindows schrieb:
Gibts denn nicht auch langsam mal Testgeräte von den Monitorherstellern damit Fachmagazine Vergleichstests machen können? Ein Blick auf den Kalender und man sieht, dass bald März ist.

Da böte es sich doch an, aml langsam mit Tests die potentiellen Käufer zu wirklichen Käufern zu machen. Vielleicht könnte die Redaktion ja auch mal was dazu sagen. Vielleicht ob schon Testgeräte da sind, bzw. für Tester angekündigt wurden.

Bald gibts die Monitore, aber immer noch keine Grundlagen auf denen man seine Kaufentscheidung treffen kann.
Prad hat gerade den LG 34um67 im Test.
 
@karod3: Ich habe leider keine Erfahrungen mit Prad was Tests angeht. Also ob die Tests was taugen, wie getestet wird usw. Da die den Bildschirm anscheinend schon seit Ende Januar haben müsste ja auch bald ein Bericht kommen.
Ich hoffe es werden gute, aussagekräftige Tests sein. :)
 
Also wenn sie es so machen wie beim ACER Liquid S2 Ware auf den Markt schmeissen aber keinleih Updat mehr arbeiten ( Bei mir android updat) Dann gute nacht wenn sie es hier auch so machen
 
Ich kenne keine ausführlicheren Tests für Monitore, als die von Prad.de veröffentlichten, im Internet.

Auch sollte mal mit einigen Missverständnissen aufgeräumt werden, was die zugrunde liegende Technik bei GSync/Freesync/Adaptive Sync angeht.

Adaptive Sync ist die im VESA Standard spezifizierte Technik derer sich sowohl GSync(Nvidia) als Freesync (AMD) bedienen.
AdaptiveSync wurde erstmalig im eDP-Standard spezifiziert 2011. Diese Spezifizierung erfolgt, dort, weil dazu eDP notwendig ist um es zu nutzen.
Seite 10: http://home.sogang.ac.kr/sites/aipr...plications_LG전자_홍국태 발표자료_HS Interface_V10.pdf
attachment.php


eDP ist allerdings nun nicht gleich zu setzen mit DP 1.2, DP 1.2a oder HDMI oder DVI. Es ist kein Anschluß der GPU, sondern die interne Verbindung des TFT-Panels mit dem Monitor-Controller. In Notebooks findet dies schon länger Verwendung, während in Desktop-Monitoren bis zuletzt meistens das Panel mit LVDS angebunden haben. Es gab allerdings auch Ausnahmen die das Panel mit eDP abgebunden haben im Professionellen Sektor für hohe Auflösungen. Denn dies wird jetzt auch im Desktop nötig, da DP 1.2 in Verbindung mit LVDS ans Limit gelangt ist.

DP8640-Block-Diagram-20140325.png


eDP ersetzt nun LVDS in allen neu erscheinenden Monitoren dieses Jahr um 4K und höhere Auflösungen zu ermöglichen. Natürlich wird es auch neue Monitore mit LVDS Anbindung geben, welche die Bandbreite eben nicht benötigen, solange durch die Massenfertigung noch ein Preisvorteil damit zu erzielen ist bei billigen oder niedrig Auflösenden Monitoren. Dies wird sich mit immer mehr Verbreitung durch eDP ändern und irgendwann ist eDP der Standard der LVDS überall ersetzt weil so Stückzahlen günstiger einheitlich zu produzieren sind.

DP703-Block-Diagram-20131017.png


Ohne eDP-Anbindung des Panels kann es kein AdaptiveSync geben, auch nicht mit DP 1.2a. Allerdings bietet DP 1.2a mit seiner Erweiterung des Protokolls die Bandbreite um eDP voll zu nutzen, ohne dass man Features, die schon Standard geworden sind deaktivieren muss. Wie z.B. die Möglichkeit ausser DP-Anschlüßen auch VGA, DVI oder HDMI über den selben Controller laufen zu lassen. Dafür hat sich allerdings Nvidia entschlossen mit GSync, um früher auf den Markt zu kommen als alle anderen.

Die VESA wollte mit DP 1.3 auch AdaptiveSync einführen, zu einem Zeitpunkt wo die Industrie sich abgesprochen hatte, dass dann auch entsprechende Upgrades in der Breite bei den Monitoren möglich sind durch den breiten Umstieg von LVDS zu eDP bei den Panel-Anbindungen. Nvidia beschloss mit GSync einen eigenen Controller für Monitore zu konzipieren und somit nicht darauf zu warten, bis alle VESA Mitglieder (Sie waren ja ebenfalls dabei als eDP spezifiziert wurde) dies flächendeckend mit dem Standard anbieten. Man wollte den Earlymover Vorteil nutzen und kastrierte das eigene GSync-Modul um VGA, HDMI, DVI und schränkte die Frequenzen auf 30-144 MHz ein. Zudem Kann ein GSync-Modul einige Einstellungen der Bildqualität nicht bieten. Siehe dazu BenQ, die um diese fehlenden Eigenschaften zu kompensieren einen zweiten zusätzlichen Controller verbauen mit ihrer Hybrid-Engine:
http://gaming.benq.com/gaming-monitor/xl2420g/
NVIDIA’s latest G-SYNC revolution requires monitor manufacturers to replace their scalar with a G-SYNC, trading in the freedom to scale settings like input frame, color hue, intensity and contrast for pure speed and smoothness of the game.
Damit wurde Bandbreite frei für die zusätzlichen Daten im Overhead des Frames der übermittelt werden muss. Allerdings benötigt GSync ebenso wie Freesync eine bestimmte Funktion von eDP: Panel Self Refresh. Ohne die gibt es keine Adaptive Synchronisation.
http://www.vesa.org/wp-content/uploads/2010/12/DisplayPort-DevCon-Presentation-eDP-Dec-2010-v3.pdf
attachment.php


Für Panel Self refresh benötigt es einen Buffer der den letzten Frame solange immer wieder auf der niedrigst möglichen Monitor Frequenz Wiederholt, bis ein neues fertiges Bild inkls. dem VBLANK-Befehl dieses ersetzt. Auf diese Weise passt sich der Monitor jeglicher Frequenz an, welche die GPU vorgibt und innerhalb der Monitor-Spezifiaktion liegt. auf der anderen Seite erhält die GPU durch die standardisierte EDID-Datei alle Informationen zur Leistung des Monitors, und kann daraufhin bei einem 60 Hz Monitor z.B. bei 60 Frames pro Sekunde eine Limitierung aktivieren - VSync nennt man dies heute. Es nützt schließlich nichts frames zu rendern, die der Monitor nicht anzeigen kann. Auf der anderen Seite entfällt durch ASync allerdings die Notwendigkeit doppelt so viele Frames zu rendern durch die GPU um Tearing zu vermeiden, da der Monitor nun warte, bis der Frame komplett übertragen ist. Daher sind hier 40 FPS auf einem 60 Hz Monitor so angenehm oder gar angenehmer und flüssiger, als 80 FPS auf einem 144 Hz Monitor der kein ASync bietet.

Dadurch, dass Nvidia beschloss früher auf den Markt zu kommen und LVDS-angebundene Monitore mit DP 1.2 schon AdaptiveSync-fähig zu machen mit GSync, mussten sie das Controllermodul tauschen und einen zusätzliche Frambuffer für PSR (PanelSelfRefresh) zur Verfügung stellen. Mit diesem Modul verbaut man auch einen neuen Scaler als eine integrierte Einheit. Deshalb brauchen GSync-Monitore neue Scaler, nicht weil die Scaler selber ausgetauscht werden müssten, sondern weil sie in diesem Steuermodul integriert sind. Nun ist es aber so, dass ein Scaler lediglich das Bild auf die gewünschte Auflösung skaliert, wie der Name ja schon sagt. Dies hat aber weder Einfluss auf die Frequenz der Bilderzeugung, noch hat der Scaler irgendeinen Einfluß auf auf die Monitorfrequenz. Daher war es ohne Probleme für AMD möglich direkt nach Ankündigung von GSync auf der CES eine Demo auf Notebooks mit eDP zu zeigen:
https://www.youtube.com/watch?v=pIp6mbabQeM
die sie dann Freesync nannten, weil das ganze schon völlig kostenlos und FREI verfügbar ist da VESA-Standard. Es funktioniert auch mit jedem Monitor, der PSR verbaut hat. Es benötigt keine speziellen Scaler, sondern nutzt die von der Industrie sowieso eingesetzten Scaler in den Monitorcontrolern. Nur um diese Steuerbefehle auch allen anderen VESA-Mitgliedern zur Verfügung zu stellen wurde schnell das DP 1.2a released und DP 1.3 nicht abgewartet - vermutlich auf die berechtigten Einwände der anderen VESA-Mitglieder hin, dass ja keinerlei neue Technik zum Einsatz kommt und sie keine Lizenzkosten an Nvidia zahlen wollen für VESA-Standards.

Den Beweis dafür, das Nvidias GPUs auch ohne GSync-Modul Adaptive Synchronistation beherrschen erbrachte ein Treiber-Programmierer, der einen angepassten Treiber von Asus veröffentlichte mit aktiviertem GSync - damit war klar, dass in dem GSync Modul eine DRM-Abfrage stattfindet ob eine Nvidia-GPU verbaut ist und dann die Funktion abschaltet falls nicht.
Siehe: [Update] GSync als grosser Bluff entlarvt - Nvidia nutzt AdaptiveSync der VESA für GSync
Bestätigt wurde dies in Tests von PCper und auf Nachfrage auch von Nvidia:
http://www.pcper.com/reviews/Graphics-Cards/Mobile-G-Sync-Confirmed-and-Tested-Leaked-Alpha-Driver
NVIDIA will release G-Sync on mobile devices without the requirement of a G-Sync module,

Damit wird der Desktop-Monitor zu Nvidias Domäne für die Dauer der Benutzung und andere GPU-Hersteller werden erst wieder in Betracht gezogen wenn der Monitorwechsel ansteht - dies ist üblicherweise nach einigen GPU-Generationen erst der Fall.

Tatsächlich ist es so, dass sowohl Nvidias Gsync als auch AMDs Freesync die selbe Technik nutzen namens AdaptiveSync, welches eDP und PSR benötigt. Das zu verbauende GSync-Modul in den Monitoren ist völlig unnötig um GSync zu ermöglichen und würde mit jedem AdaptiveSync-fähigen Monitor funktionieren, wenn es im Treiber aktiviert wird. Eine solche Abfrage besteht bei AMDs Freesync nicht, doch sind dies eben die Treiber für AMD-GPUs. Solche Treiber nennt Nvidia GSync und Intel wird dem ganzen wohl gar keinen Marketingnamen geben um das Feature nicht aufzuwerten und es einfach DP 1.2a inkl. Adaptive Sync nennen. Denn dort waren solche Features auch vor Nvidias versuchtem Bluff zu finden.

Was die Scaler angeht, so werden neue Scaler nötig wegen den durch eDP deutlich höheren möglichen Auflösungen. Diese waren für März wie man sieht sowieso vorgesehen. Daher hat AMD damals auch verlautet es sei keine zusätzliche Hardware nötig für Freesync. Solche Monitore exisiteren schließlich schon und könnten per Firmware Update AdaptiveSync-Fähig gemacht werden. Ein Beispiel ist der Iiyama's B2888UHSU-B1 dafür: http://www.guru3d.com/news-story/iiyama-prolite-b2888uhsu-will-get-freesync-update.html
Dem ein kostenloses Upgrade durch Overclockers UK in Aussicht gestellt wurde ohne den Hersteller zu fragen, der natürlich die Kosten dafür nicht übernehmen wollte so ohne weiteres. Overclockers UK hat aufgrund der vorschnelle Behauptung seinen Kunden angeboten die Kosten zu übernehmen.
Update: Inzwischen musste der Händler Overclockers UK die Informationen über Freesync beim Iiyama ProLite B2888UHSU-B1 entfernen, da der Hersteller dies gefordert hat, bis wirklich klar ist, ob und wie das Upgrade für die Freesync-Funktion ablaufen soll. Den Kunden, die den Monitor nun bereits gekauft haben, weil er mit Freesync beworben wurde, bietet der Händler nun einen eigenen Service. Entweder können die Kunden den Monitor zurückgeben und dann gegen die offizielle Freesync-Version austauschen oder Overclockers UK wird das Upgrade selbst bezahlen.
Also die technische Basis war vorhanden und schon im Markt - doch wer soll das Upgrade bezahlen war hier lediglich die Frage. Getestet wurde der Monitor bei PRAD im September 2014:
http://www.prad.de/new/monitore/test/2014/test-iiyama-b2888uhsu-b1.html
Natürlich damals noch nicht auf AdaptiveSync.

Es tut mir Leid wegen dem langen Posting, doch ist so viel falsches über ASync im Umlauf, dass diese Grundlagen mal zusammengefasst werden mussten um deutlich zu machen, dass es keine Scaler gibt die GSync-Fähig sind, dies auch von Nvidia niemals behauptet wurde und es kein einziges technisches Dokument gibt, welches eine solche Fähigkeit von Scalern überhaupt erwähnt. Geschweige denn dass jemand etwas gehört hätte, dass irgendjemand Scaler produzieren würde die diese Eigenschaften haben sollen. Sie haben sie nicht, weil Scaler hier keinen Einfluß haben.
 
Zuletzt bearbeitet: (Typos)
DrToxic schrieb:
Es sollte doch eigentlich kein Problem sein, das LED-Backlight dann mit dem Sync-Signal zu koppeln. Dann hätte man komplett tearing- und blur-freie Monitore.

Das funktioniert nicht zusammen, weil bei niedrigen fps=Refreshraten das Backlight flimmern würde. Bei nur 30-50 Hz wäre das Flimmern deutlich wahrnehmbar.

AMINDIA schrieb:
Nvidia verdient an G-Sync, weil sie ein Modul für G-Sync verkaufen.

Nvidia verdient daran auch nichts, weil das Modul in der Herstellung sehr teuer ist.

Smagjus schrieb:
Freesync gibt es bereits jetzt schon günstiger als Gsync:
obwohl .... noch nicht einmal gelauncht ist.

Wer findet den Widerspruch?
 
Zuletzt bearbeitet:
Daedal schrieb:
Auch sollte mal mit einigen Missverständnissen aufgeräumt werden, was die zugrunde liegende Technik bei GSync/Freesync/Adaptive Sync angeht.

Das hast Du getan.
Danke Daedal, für den Ausführlichen Beitrag.
Werde mir Dein Posting mal merken, falls ich später nochmal nachlesen möchte. :-)
 
kisser schrieb:
Das funktioniert nicht zusammen, weil bei niedrigen fps=Refreshraten das Backlight flimmern würde. Bei nur 30-50 Hz wäre das Flimmern deutlich wahrnehmbar.

Warum? Das Licht muss nur während des Bildaufbaus deaktiviert sein, der dauert unabhängig von der Frequenz immer gleich lang. Wenn das Bild einmal "steht", kann das Backlight wieder beliebig lange leuchten, bis zum nächsten Bildaufbau halt.
 
@kisser

Doch, da steht es doch genau so drin, wie ich es gerade beschrieben habe. Aber jetzt habe ich verstanden, wieso das strobing bei niedrigen refreshraten dann als Flimmern wahrgenommen werden kann.
Zum Glück gibt es da auch Lösungen für (strobingstärke in Abhängigkeit der Wiederholrate), aber die sind natürlich nochmal komplizierter.
 
Zurück
Oben