News AMD: FreeSync 2 vereint Adaptive Sync und LFC mit HDR

Laphonso schrieb:
sorry für OT, aber bitte wie? Freesync greift ert mit >48 fps?
Im Monitorthread hieß es, dass Freesync ja schon alles kann wie G-Sync, also out of the Box Skalierung von 1-1xx fps/hz über alle Frequenzbereiche, ohne Tearing, ohne Ghosting, ohne stutter, ohne Flicker, man müsse nichts modden oder mit Profilien justieren?
Oder habe ich hier etwas falsch verstanden?
Kommt auf den Monitor an, manche starten bereits ab 35 FPS/Hz. Es ging nur darum, falls man einen Monitor hat mit einer Range von bspw. 48-90Hz nach unten oder oben hin zu modden. Man muss nichts modden, mann kann.

Hier mal ein Bericht dazu :)
 
Zuletzt bearbeitet:
noxon schrieb:
Laut AMD liegt das also alles in der Verantwortung der Monitorhersteller, was in der Tat eine vertretbare Aussage ist.
Was hat AMD damit zu tun, wie Monitorhersteller ihre Displays ansteuern?
AMD kann hier auch nichts anderes machen.
Und genau hier findet sich der grundsätzliche Unterschied im Design:
nvidia setzt auf eine kontrollierte Architektur. G-Sync ist eine Hardwareschnittstelle, in welcher die Kommunikation der Komponenten im einen Korsett stattfindet, um die aus nvidia Sicht gerforderte Funktion+Qualität zu gewährleisten.
nvidia überlässt es also nicht den Monitorherstellen, und das ist der größte Unterschied in der Implementation zu Freesync.
Die Güte und Funktionsweise ist bei Freeync auf die Monitorhersteller delegiert, und damit auch die potenzielle Fehlerquelle (neben Treiber + Spiel/App)

Ich habe gestern mein willkürliches Google Resultat zu Freesync vs GSync Problemen hier geposted: 98 Mio vs unter 3,4 Mio. Resultate.
Und genau DAS ist das "incentive" und Premium Feature.

Mal sehen wie sich Freesync 2 auswirkt.
Sobald die ersten Tests kommen, die eine Erkenntnis schaffen mit dem Ergebnis "Freeync ist 1:1 gleichwertig oder GSync überlegen", wird das nvidia "Premium Feature" irrelevant für mich. Und wohl auch für den Markt.
Ergänzung ()

http://www.pcgameshardware.de/AMD-F.../AMD-Freesync-Tuning-Spanne-erhoehen-1168369/
Der Link kam von Black&White aus einem anderen Thread:
D.h. die Freesync Monitore können NICHT das,was G-Sync Monitore können, nämlich aus allen Frequenzbereichen und framebereichen stabil alle Ghosting+Tearing+Stutter+Flicker Effekte verhindern? :confused_alt:
 
Zuletzt bearbeitet:
EchoeZ schrieb:
Weil Panels die damit umgehen können, eben teurer sind als 'Normale'!?

Die Panels sind doch die gleichen, aber die Ansteuerung der Panels ist aufwendiger und deshalb ist auch Freesync nicht "kostenslos".
 
janeeisklar schrieb:
:rolleyes:
dann erläutere das doch bitte, denn hier widersprechen sich seit Tagen schon die Aussagen der Freesync Fürsprecher.

Ergänzung ()

kisser schrieb:
Die Panels sind doch die gleichen, aber die Ansteuerung der Panels ist aufwendiger und deshalb ist auch Freesync nicht "kostenslos".
Interessant, also nicht nur eine NVIDIA Lösung kostet zusätzlich Geld, sondern die "Freie" und standardisierte auch ;-)
 
Ich habe bis jetzt mit meinem Monitor keiner dieser Effekte erlebt: Ghosting+Tearing+Stutter+Flicker.
 
Strikerking schrieb:
Ich habe bis jetzt mit meinem Monitor keiner dieser Effekte erlebt: Ghosting+Tearing+Stutter+Flicker.
Soweit so gut.
Frage dazu:

Aber: http://www.prad.de/new/monitore/test/2015/test-asus-mg279q-teil13.html#Fazit
"Bedauerlich ist die Tatsache, dass es nicht möglich ist, beides zusammen zu aktivieren, da FreeSync nur bis 90 Hz funktioniert. Das ist jedoch nicht dem Monitor anzukreiden, sondern ein allgemeines Problem von FreeSync."

Ist das behoben?

Witzigerweise hast Du einen GSync Monitor per se gekauft, womit das Argument "G Sync ist zu teuer" kurios wird, wenn so ein Gerät für Freeync genutzt wird ;-)
 
Wiso einen Gsync per se gekauft? wegen dem Preis oder was?
Ob ich freesync nutze kommt auf das Spiel drauf an.
 
Strikerking schrieb:
Wiso einen Gsync per se gekauft? wegen dem Preis oder was?
Ob ich freesync nutze kommt auf das Spiel drauf an.
Dein Monitor ist ein G-Sync Monitor, den Du aber ohne G-Sync nutzt, richtig?

Wieso hängt Freesync "nutzen" vom Spiel ab by the way? Alle G-Sync Funktionen laufen im Vergleich übrigens immer. Das zum Thema plug&play. Wenn Du also nicht G-Sync nutzt, hast Du automatisch schon "weniger" an Funktion, weil Du pro Spiel etwas aktivieren musst?

Das zum Thema welche Technik - derzeit - überlegen ist.

Übrigens "ASUS MG278Q is 144hz native. FreeSync range is 40-144hz." Ist das so? Weiter oben schrieb jemand Freesync funktioniere auch von 1-144Hz analog G-Sync. Aber das hängt vom Monitor ab?
 
"
[h=2]Freesync 2: Einen Haken gibt es[/h]




Das Ganze kommt allerdings nicht ohne Haken aus: Die zugrunde liegende Spiele-Engine muss Freesync 2 unterstützen, damit sie das Tone-Mapping an den Monitor anpassen kann. Entwickler müssen also zunächst einmal Zeit und damit Geld investieren, um einen Nischenmarkt bedienen zu können. Wie groß der Aufwand ausfällt, hat AMD nicht erläutert."

und
"In der Pressemitteilung zu Freesync 2 hat AMD angegeben, dass die ersten Freesync-2-zertifizierten Monitore noch für das erste Halbjahr 2017 erwartet werden. Zahlreiche Hersteller sollen bereits kommende Modelle zur Begutachtung an AMD geschickt haben. Samsung wird als Hauptpartner präsentiert."

http://www.pcgameshardware.de/AMD-F...mit-intelligenter-HDR-Unterstuetzung-1217305/

Also Freesync 2 - Implementation in das Spiel erforderlich vs. G-Sync funktioniert immer, weil unabhängig von der Applikation/dem Spiel

Und da fragen manche noch hier, warum sich nvidia nicht dem "Standard" anschließt. Wozu, wo sie doch derzeit noch die überlegenen Features haben?
 
Ist ja bei Gsync HDR nicht anders
G-Sync HDR: Nvidias Freesync-2-Konkurrent ist theoretisch weniger flexibel.
So schön das Panel ja sein mag, das ist ja mal wieder so ein lächerliche Aktion von NV :nene:
Ein Panel mit zu entwickeln und anzupreisen ist ja okay, aber andere Panels / Monitore auszuschließen ist halt so ein Schwachsinn. Welcher Spieleentwickler sollte eine Unterstützung für genau einem extrem teuren Monitor einbauen?
http://www.pcgameshardware.de/Nvidi...ews/G-Sync-HDR-Freesync-2-Konkurrent-1217564/
 
Strikerking schrieb:
Das ist ein Freesync Monitor mein MG279Q!

hier die Spezifikationen wenn es dich ja so interessiert:
https://www.asus.com/ch-de/Monitors/MG279Q/specifications/

Und hier das gegenstück mit TN Panel ASUS MG278Q:
https://www.asus.com/ch-de/Monitors/MG278Q/specifications/

Ah, danke für die Klarstellung!
Bei Deinem Monitor steht "FreeSync™ technology supported (35Hz-90Hz)" und bei dem MG278Q schreibt PCGH 35-144Hz.
Das ist dann jeweils immer noch dem G-Sync Range unterlegen. Marginal, aber eben die Nuance "schlechter", nur fürs Protokoll.
 
Laphonso schrieb:
"
[h=2]Freesync 2: Einen Haken gibt es[/h]




Das Ganze kommt allerdings nicht ohne Haken aus: Die zugrunde liegende Spiele-Engine muss Freesync 2 unterstützen, damit sie das Tone-Mapping an den Monitor anpassen kann. Entwickler müssen also zunächst einmal Zeit und damit Geld investieren, um einen Nischenmarkt bedienen zu können. Wie groß der Aufwand ausfällt, hat AMD nicht erläutert."

und
"In der Pressemitteilung zu Freesync 2 hat AMD angegeben, dass die ersten Freesync-2-zertifizierten Monitore noch für das erste Halbjahr 2017 erwartet werden. Zahlreiche Hersteller sollen bereits kommende Modelle zur Begutachtung an AMD geschickt haben. Samsung wird als Hauptpartner präsentiert."

http://www.pcgameshardware.de/AMD-F...mit-intelligenter-HDR-Unterstuetzung-1217305/

Also Freesync 2 - Implementation in das Spiel erforderlich vs. G-Sync funktioniert immer, weil unabhängig von der Applikation/dem Spiel

Und da fragen manche noch hier, warum sich nvidia nicht dem "Standard" anschließt. Wozu, wo sie doch derzeit noch die überlegenen Features haben?

Ich frage mich, weshalb das Tone-Mapping nicht vom Treiber selbst aus durchgeführt werden kann (wodurch der Aufwand im Spiel eingespart werden könnte). Wie löst Nvidia diese Aufgabe denn?
 
kisser schrieb:
Die Panels sind doch die gleichen, aber die Ansteuerung der Panels ist aufwendiger und deshalb ist auch Freesync nicht "kostenslos".
OK, praktisches Beispiel. Der günstigste Freesync Monitor ist ein Liyama 21.5" und kostet knapp 119€. Der günstigste Liyama 21.5" ohne Freesync kostet knapp 109€. Da bietet aber der FS Monitor einen höheren Kontrast (12Mio vs. 5Mio) und schnellere Reaktionszeit (1ms vs. 5ms)
Aber lass mich raten, das ist in deinen Augen nur Marketinggewäsch und der 10er mehr ist für eine 'teure' Freesync-Lizenz :lol:
http://geizhals.de/?cmp=826028&cmp=1452043
 
Zuletzt bearbeitet:
Strikerking schrieb:
Für Freesync 2 und G-Sync HDR müssen neue Monitore her.

"Da es zumindest vorerst nur eine mögliche Konfiguration mit G-Sync HDR geben wird, reicht bereits eine Erkennung des Monitors aus, um das Tone-Mapping korrekt einstellen zu können. Theoretisch muss der Monitor also nicht die erforderlichen Werte über den Treiber an das Spiel übermitteln."

Das ist doch im Sinne des G-Snyc Korsetts, was ich oben erläutert hatte: Reduktion von Fehlerquellen, Kontrolle der Schnittstellen.
Doof nur für nicht-nvidia Nutzer, denn "And in partnership with your favorite developers, NVIDIA is getting upcoming and already-released games ready for the launch of G-SYNC HDR"
Sprich, wir sind wieder und weiterhin beim Premium Feature.
Ergänzung ()

foxio schrieb:
Ich frage mich, weshalb das Tone-Mapping nicht vom Treiber selbst aus durchgeführt werden kann (wodurch der Aufwand im Spiel eingespart werden könnte). Wie löst Nvidia diese Aufgabe denn?
So wie immer, eigene Lösung, devs über buddy business einbinden
"Recently NVIDIA send us a nice HDR TV and we got a chance to checkout this new HDR display stuff in practice. "
https://knarkowicz.wordpress.com/2016/08/31/hdr-display-first-steps/
https://developer.nvidia.com/preparing-real-hdr
http://www.geforce.com/whats-new/articles/nvidia-g-sync-hdr-announced-at-ces-2017

G-Sync HDR wird das Hairworks unter den Monitoren, nur mit Quantum Dots ;)
 
Ich frage mich, wenn das eine parallel betreute Technologie und kein Ersatz für Freesync 1 ist, warum nennt man das Ding dann "2"? Warum nicht "Pro" oder ein anderes Synonym um eine bessere Technologie zu repräsentieren?
 
Ist es wirklich eine parallel Technologie? Ich würde es eher als Add-On sehen, zumindest habe ich es so verstanden.
 
Zurück
Oben