Notiz Neue Bezeichnung: Aus AMD FreeSync 2 wird FreeSync 2 HDR

Schätze mal, das wird noch etwas dauern. Möglicherweise bis 2019. Irgendwann dies Jahr wohl noch soll doch Turing erscheinen und vermutlich werden sich die Monitorhersteller darauf stürzen und "speziell" taugliche neue Monitore in alte Kisten stecken.
 
@Faust2011
Ich war gestern bei Sarurn und auch wenn an ein paar Geräten HDR dran stand, war das verwendete Videomatherial ganz normal und man hat nichts gesehen.
 
Inxession schrieb:
Verstehe einfach nicht, wie man sowas unterstützen kann?!

Ganz simpel. Man hat eine Nvidia Karte und will die Technik nutzen. Was gibts? G-Sync.
Als ich das vor Jahren gekauft habe, hatte ich nicht geplant 2-3 Jahre später den Monitor wegzuschmeißen und dann auch noch eine konkurrenzfähige AMD Karte vorzufinden. Das heißt man ist so lange im den Fängen von Nvidia bis AMD exakt in dem Moment, wo ich aufrüsten will, eine konkurrenzfähige Grafikkarte auf den Markt bringt und ich dann auch noch bereit bin den Monitor zu wechseln oder dieser kurz davor kaputt geht.
 
Ist der Bereich indem G-Sync arbeitet nicht meistens um einiges größer als bei freesync.
Gerade im unteren Bereich
 
@LiPpO
Das ist zwar öfter so, hat aber nichts mit der Technik zu tun.
Da werden einfach billigere Panel verbaut, die nicht so weit runter kommen.
Solange die range groß genug ist, ist das aber egal.
Selbst wenn die untere Grenze bei z.B. 45 Hz liegt, kann trotzdem synchronisiert werden, indem das gleiche Bild zweimal mit 90 Hz dargestellt wird.
Hat das Panel als obere Grenze 75 HZ, dann geht das nicht und man bekommt Tearing.

Sowas würde ich aber auch nicht empfehlen/kaufen.
Wenn man ein 144Hz Panel hat, dann kann das in der Regel auch weit genug runter um bis 144Hz zu synchronisieren und darüber kann man erweiterte synchronisation anmachen und hat sync trotz hoher FPS.
 
LiPpO schrieb:
Ist der Bereich indem G-Sync arbeitet nicht meistens um einiges größer als bei freesync.

Es gibt zumindest einheitliche Vorgaben was ein Monitor unterstützen muss um G-Sync verbauen zu können. Das ist auch das Schöne daran. Du hast zwar weniger Auswahl, aber sync-technisch immer eine sehr gute Range, da sie vorgegeben wird und nicht beliebig ist. Da kanns dir einfach nicht passieren dass du einen super Monitor siehst und dann z.B. nur eine Sync-Range von 48 bis 70 Hz hast.
 
Egal ob FreeSync oder GSync, die Technologie wird erst dann obsolet, wenn eine GPU eingesetzt wird, die immer mehr als die native Wiederholfrequenz des Bildschirms schafft bei immer guten Frametimes. Die Folge daraus: wer sich bereits ein Display mit FreeSync oder GSync gekauft hat ist bis auf weiteres an entweder AMD oder NVidia gebunden.

Abhilfe schaffen da nur drei Dinge:
1. AMD bringt bessere GPUs und erlangt so deutlich höhere Marktanteile/Marktmacht.
2. Intel will FreeSync in Zukunft unterstützen. Im Idealfall inklusive konkurrenzfähigerer GPUs.
3. NVidia macht einmal etwas richtig und schafft den eigenen proprietären Mist wieder ab. Wobei das sowohl unwahrscheinlich, als auch ein Schlag ins Gesicht für Käufer von GSync Monitoren ist.

Und das Thema proprietäre Lösung:

NVidia nutzt proprietären Code um mittels proprietärem Chip (den die Display Hersteller kaufen und verbauen müssen) eine Funktion zu liefern, die nur mit den eigenen GPUs funktioniert. Gleichzeitig zeigen sie anhand von Notebooks, dass der Chip garnicht nötig ist, sondern Sync vollständig über GPU/Treiber funktionieren kann.

AMD liefert eine Lösung, die zunächst direkt über den DisplayPort Standard, später auch über den HDMI Standard funktioniert und prinzipiell von jedem anderen Unternehmen genutzt/unterstützt werden kann. Proprietär ist hier nur der AMD GPU Treiber.

Wäre NVidia bereit die eigene, proprietäre Lösung vernünftig an alle anderen Hersteller zu Lizensieren, und wäre nicht dieses Geschmäckle wegen Notebooks die ohne Zusatzchip können, dann wäre wahrscheinlich auch die Diskussion und die Empörung bei diesem Thema deutlich geringer.
 
Shririnovski schrieb:
1. AMD bringt bessere GPUs und erlangt so deutlich höhere Marktanteile/Marktmacht.
2. Intel will FreeSync in Zukunft unterstützen. Im Idealfall inklusive konkurrenzfähigerer GPUs.
3. NVidia macht einmal etwas richtig und schafft den eigenen proprietären Mist wieder ab. Wobei das sowohl unwahrscheinlich, als auch ein Schlag ins Gesicht für Käufer von GSync Monitoren ist.

1: Steht in den Sternen (beabsichtigte Doppeldeutigkeit)
2: Streng genommen kann Intel FreeSync nicht unterstützen, denn FreeSync ist ein eingetragenes Markenzeichen von AMD. Da müsste Intel einen eigenen Namen erfinden und promoten, oder von AMD lizenzieren
3: Siehe 2.

Wenn man (2) und (3) betrachtet sollte man hoffen dass sich FreeSync als Begriff nicht allzu sehr festsetzt, sondern eher Adaptive Sync. Je mehr sich FreeSync als Begriff etabliert, desto weniger attaktiv wird Adaptive Sync für nVidia. Bei Intel könnte ich mir allerdings nen Lizenzdeal vorstellen.
 
Schnitz schrieb:
Ein Standard wäre es wenn man es auch mit NV-Karten nutzen könnte, also der geneigte NV Nutzer die Wahl zwischen G- und Free-Sync hätte.
Du redest von Implementierung, nicht von Standards.

Standards werden von Standardisierungsorganisationen (in dem Fall die VESA) gesetzt, ob Sie genutzt werden liegt in der Hand der Hersteller und da hat sich nvidia offensichtlich dagegen entschieden.
 
  • Gefällt mir
Reaktionen: Schnitz
Shririnovski schrieb:
3. NVidia macht einmal etwas richtig und schafft den eigenen proprietären Mist wieder ab. Wobei das sowohl unwahrscheinlich, als auch ein Schlag ins Gesicht für Käufer von GSync Monitoren ist.
Erstmal, sind die Preise für G-Sync ein Schlag ins Gesicht.

Ich halte es für garnicht so Unwahrscheinlich, das Nvidia da mal was ändert. Wenn AMD-Karten durch den Minigboom nicht so teuer gewesen wären, hätte die G-Sync Geschichte schon einen anderen Verlauf nehmen können.

Ich habe mich erst vor kurzem etwas damit beschäftigt. Ich suchte einen WQHD Monitor mit min. 30 Zoll. Für Freesync gibt es da reichlich und auch bezahlbar. Für G-Sync kostet dann der Aufpreis fast 300€.

300€! Würden die Vega-Karten nicht so sau teuer sein, kann man dafür schon fast wechslen, je nachdem welche Karte man gerade verbaut hat.
 
Shririnovski schrieb:
Wäre NVidia bereit die eigene, proprietäre Lösung vernünftig an alle anderen Hersteller zu Lizensieren, und wäre nicht dieses Geschmäckle wegen Notebooks die ohne Zusatzchip können, dann wäre wahrscheinlich auch die Diskussion und die Empörung bei diesem Thema deutlich geringer.
Die Geschichte wäre kein Thema wenn sich nvidia einfach nur mal dazu herab lassen würde auch den bestehenden Standard zu unterstützen. Eine solche Lizenzierung wäre dann komplett überflüssig.
 
Es ist wirklich bedauerlich (wenn nicht sogar eine Schande), dass es hier noch immer keinen einheitlichen Standard für GPUs aller Hersteller gibt und Nvidia sein eigenes proprietäre Süppchen kocht.

Adaptive Sync/AMD FreeSync 2 fehlt nur ein wenig die breite Range von G-Sync. Mein Monitor unterstützt z.B. AMD FreeSync 2 HDR (600) bei 48-144 Hz. Das sieht aktuell bei Nvidia noch ein wenig besser aus.

Das auch Nvidia Karten mit entsprechenden Hacks/Tweaks Adaptive Sync/FreeSync zulassen zeigt nur dass ein solcher Alleingang mit Lizensierung, Chip & Co. gar nicht nötig wäre.

Abgesehen davon, zahlt man für G-Sync Geräte bei relativ identischen Spechs gut 200-300 Euro mehr.

Es liegt an AMD in Sachen GPUs aufzuholen, dann könnte man etwas mehr Druck auf Nvidia machen.

Liebe Grüße
Sven
 
Shririnovski schrieb:
2. Intel will FreeSync in Zukunft unterstützen. Im Idealfall inklusive konkurrenzfähigerer GPUs.
Für Videowiedergabe (siehe ein Post von mir weiter oben) braucht es keine stärkeren GPUs. Aber FS / AS wäre da nicht verkehrt.

DocWindows schrieb:
2: Streng genommen kann Intel FreeSync nicht unterstützen, denn FreeSync ist ein eingetragenes Markenzeichen von AMD. Da müsste Intel einen eigenen Namen erfinden und promoten, oder von AMD lizenzieren
Hat Intel das nicht schon? Ende 2016 stand hier doch sowas in den News.

RYZ3N schrieb:
Adaptive Sync/AMD FreeSync 2 fehlt nur ein wenig die breite Range von G-Sync. Mein Monitor unterstützt z.B. AMD FreeSync 2 HDR (600) bei 48-144 Hz. Das sieht aktuell bei Nvidia noch ein wenig besser aus.
Und wo ist das Problem bei 47 Hz? Durch Bildverdoppelung liegst Du doch im Bereich drin (94 Hz).
 
Vindoriel schrieb:
Und wo ist das Problem bei 47 Hz? Durch Bildverdoppelung liegst Du doch im Bereich drin (94 Hz).

Nein, bei mir persönlich liegt überhaupt kein Problem vor. Ich bin mit der Kombination von RX 580 + Display + FreeSync 2 sehr zufrieden.

Es war mehr eine allgemeine Anmerkung, dass G-Sync Monitore in der Regel eine bessere Range bieten.

Liebe Grüße
Sven
 
Schaby schrieb:
Ich suchte einen WQHD Monitor mit min. 30 Zoll. Für Freesync gibt es da reichlich und auch bezahlbar. Für G-Sync kostet dann der Aufpreis fast 300€.

Mit LFC-Support (also vollwertigem Freesync) sind es laut Geizhals nur noch 5 Monitore. Aufpreis für G-Sync ist 250€.
 
Vindoriel schrieb:
Hat Intel das nicht schon? Ende 2016 stand hier doch sowas in den News.

Nicht das ich mich erinnern würde.
Kann vielleicht sein dass sie das im Rahmen der Vega Grafikeinheit mitverwenden dürfen. Im Zusammenhang mit HD Graphics hab ich das nicht aufm Schirm.
 
RYZ3N schrieb:
Adaptive Sync/AMD FreeSync 2 fehlt nur ein wenig die breite Range von G-Sync. Mein Monitor unterstützt z.B. AMD FreeSync 2 HDR (600) bei 48-144 Hz. Das sieht aktuell bei Nvidia noch ein wenig besser aus.
FreeSync (1 und 2) gibt die Panel refresh rate an, gsync gibt Frame-Doubling+Panel refresh rate an, insofern vergleichst du Äpfel mit Birnen.
Wenn du beides Vergleichen willst, dann musst du LFC (ist ab Freesync 2 ein muss!) bei AMD mit zur Range nehmen.
 
  • Gefällt mir
Reaktionen: SVΞN
@janeeisklar dank dir für die Erläuterung, wieder etwas gelernt.

Könntest du dennoch mal im Detail darauf eingehen, was genau das bedeutet und wie man eine gewisse Vergleichbarkeit von AMD FreeSync 2 und NVIDIA G-Sync herstellen kann? Ich wäre dir sehr dankbar.

Ich habe jetzt aktuell mal meinen aktuellen Monitor, Samsung C32HG70 als Beispiel.

Laut offizieller Produktbeschreibung:

* Adaptive Sync
* AMD FreeSync 2 HDR
* Frequenzbereich: 48-144Hz
* LFC-Support

Wenn ich jetzt zum Vergleich mal ein aktuell beliebtes Model mit mit NVIDIA G-Sync nehme wie z.B. den Dell S2716DG sieht das wie folgt aus.

* NVIDIA G-Sync
* Frequenzbereich: 30-144Hz

Oder gibt's darüber hinaus noch andere Faktoren zu beachten?

Dank dir vorab!

Liebe Grüße
Sven
 
Zurück
Oben