News Zehn FreeSync-Monitore machen den Anfang

Artikel-Update: Offensichtlich ist AMD mit der Aussage, dass der BenQ XL2730Z auf ein IPS-Panel setzen wird, etwas über das Ziel hinaus geschossen. So hat BenQ gegenüber ComputerBase soeben bestätigt, dass der Monitor doch nur über ein TN-Panel verfügt. Anfang März soll der XL2730Z erscheinen, eine unverbindliche Preisempfehlung gibt es noch nicht.
 
Ach... brauche dringend ein neues Monitor, will aber nicht auf TN wechseln. 120+Hz FreeSync und 24" + IPS. Will mir kein Monitor für 300-400 Euro kaufen, und nach einem Jahr kommen die IPS Panels raus.
 
Na super, mit IPS wär er das Non-Plus-Ultra geworden und definitiv mein nächster Monitor. So kann er eigentlich nur noch über einen wesentlich besseren Preis gegenüber dem PG278Q punkten. Mal gucken was die UVP da ansagt.
 
Hm, mal ne andere Frage dazu.
Hat jemand schon was gehört, ob auch Fehrnseher geplant sind mit dem nötigen Scaler? Wäre interesant zu wissen, denn ich zocke je nach Spiel und Laune entweder am Monitor oder am TV. Ein passender TV wäre daher ein Traum... Die Frage is ob es auch dabei bleibt?
 
Funktioniert doch eh nur auf der Radeon 285 da CCN 1.2
 
Zuletzt bearbeitet:
engineer123 schrieb:
Hab ich es doch geahnt.
An einige hier, die sich schon nach über-hypt anhören.
Fahrt mal die Begeisterung besser wieder runter. Hier folgende erste Eindrücke von PC-perspective (pcper):
[...]
TLDR; Es gibt eine Reihe von Beschränkungen, die G-Sync nicht hat. Es funktioniert wohl auch definitiv (leider) anders als G-Sync. In der Theorie hört sich FreeSync gut an, in der Praxis ist es einfach limitiert.

Und, wo ist jetzt genau das Problem? Hab ich eh über 60 FPS ändert sich nix. Soweit ich Adaptive Sync verstehe, ist das aber nicht der angepeilte Verwendungszweck. Interessant ist die Region zwischen "ruckelig" und einer gewissen höheren Framerate, die bisher meist wegen der Monitor-Refreshrate bei 60 FPS/Hz angesetzt wurde. Und da ist AS aktiv und funktioniert offenbar.
Falls du das in deinem selbst verlinkten Video nicht gehört hast: Die untere Grenzfrequenz von AS ist keine Limitierung von AS, sondern des Panels. Das gezeigte 144Hz-Teil kann offenbar bis runter auf 30 Hz, die anderen nur bis 40 Hz. Man kann sich jetzt streiten ob das ein optimierungswürdiger Parameter ist (Maus-Ruckel-Nörgler vor), oder ob man lieber höhere Maximalfrequenzen möchte, weil man per Treiber eh eine doppelte Bildausgabe bei niedrigen FPS hintrickst. Aber da lass ich die Herrschaften mal machen, ich bleib am Ball, aber solange kein 21:9/3440x1440 am Start ist, werd ich nicht kaufen.
 
Mr.Kaijudo schrieb:
Funktioniert doch eh nur auf der Radeon 285 da CCN 2.0
Ja fast...
http://support.amd.com/en-us/kb-articles/Pages/freesync-faq.aspx schrieb:
All AMD Radeon™ graphics cards in the AMD Radeon™ HD 7000, HD 8000, R7 or R9 Series will support Project FreeSync for video playback and power-saving purposes. The AMD Radeon™ R9 295X2, 290X, R9 290, R9 285, R7 260X and R7 260 GPUs additionally feature updated display controllers that will support dynamic refresh rates during gaming.
AMD APUs codenamed "Kaveri," "Kabini," "Temash," "Beema" and "Mullins" also feature the necessary hardware capabilities to enable dynamic refresh rates for video playback, gaming and power-saving purposes. All products must be connected to a display that supports DisplayPort Adaptive-Sync.
 
blackiwid schrieb:
Versteh nicht so ganz warum hier so viel ueber amd geredet wird. Ja vielleicht hatten sie mit der etnwicklung von dp 1.2a einiges zu tun, aber in wirklichkeit ists doch in erster linie nvidia vs intel... dann kommt lange nix dann noch amd und vielleicht noch andere.

Made my Day ....lange nicht so gelacht
 
DaBzzz schrieb:
Die untere Grenzfrequenz von AS ist keine Limitierung von AS, sondern des Panels. Das gezeigte 144Hz-Teil kann offenbar bis runter auf 30 Hz, die anderen nur bis 40 Hz.

Das ist doch egal, was da limitiert. AMD betreibt hier Augenwischerei mit ihrer Angabe von 9-240 Hz, weil es keine Panels gibt, die den Bildinhalt stabil halten bei so tiefen Frequenzen.
Aber man preist es als Vorteil gegenüber G-sync und die rote Anhängeschaft fällt mal wieder drauf rein. Siehe:
https://www.computerbase.de/forum/t...-samsung-ab-maerz-2015.1415571/#post-16578594
 
Letztendlich wird man abwarten müssen, bis es richtige Tests gibt, die FreeSync mit G-Sync vergleichen werden. Dann wird man sagen können, welche der beiden Lösungen besser oder schlechter funktioniert.

FreeSync beim BenQ XL2730Z funktioniert ja, wenn ich das richtig mitbekommen habe, zwischen 30 - 144 Hz. G-Sync funktioniert ja auch nur bis 30 Hz, da gibt es also erstmal keinen Unterschied. Und weniger als 30 FPS hat man ja ohnehin nur in Ausnahmefällen bei sehr fordernden Spielen. Und mehr als 144 Hz hat man ebenso selten.
Mal ganz davon abgesehen: Man kann auch einfach einen FPS-Limiter einsetzen bei 60/144 FPS, dann kommt man gar nicht erst über den Bereich, in dem FreeSync nicht mehr richtig funktioniert. Problem gelöst.

Aber wie gesagt, erstmal professionelle Tests abwarten. Dann wird man schon sehen was Sache ist. Im Moment läuft das Alles noch unter "Preview".
 
https://www.youtube.com/watch?v=8rY0ZJJJf1A

@ kisser

Freesnyc kann das die Limitierung liegt beim Panel nicht bei der Technologie. Wieso sollten sie es also nicht erwähnen. Wenn Panels kommen die den Berich unter 30HZ abdecken ist das gegenüber Gsnyc ein echter Vorteil. So ist es lediglich kein Nachteil.
 
Bei extrem niedrigen hz zahlen fangen die Monitore an zu schlieren. Lightboost (oder wie der entsprechende Monitor Hersteller das gerade nennt) funktioniert technisch bedingt auch nicht mit dynamischen hz zahlen genauso wenig wie 3D. Niedrige Fps/hz ist also so oder so nicht das Ziel.
 
kisser schrieb:
Das ist doch egal, was da limitiert. AMD betreibt hier Augenwischerei mit ihrer Angabe von 9-240 Hz, weil es keine Panels gibt, die den Bildinhalt stabil halten bei so tiefen Frequenzen.
Aber man preist es als Vorteil gegenüber G-sync und die rote Anhängeschaft fällt mal wieder drauf rein. Siehe:
https://www.computerbase.de/forum/t...-samsung-ab-maerz-2015.1415571/#post-16578594

Corvette gibt an, ihr Auto könne 450 Km/h fahren, die Reifenhersteller geben die Reifen aber nur bis 400 km/h frei. Bei wem liegt die Schuld, dass das Auto nicht 450 fahren kann? :freak:
 
Polishdynamite schrieb:
Corvette gibt an, ihr Auto könne 450 Km/h fahren, die Reifenhersteller geben die Reifen aber nur bis 400 km/h frei. Bei wem liegt die Schuld, dass das Auto nicht 450 fahren kann? :freak:
der Endkunde kann dann aber nur 400km/h fahren, weil mehr technisch nicht möglich ist. Bei der Werbung etwas anderes zu versprechen ist Täuschung
 
Meine Güte, AMD bewirbt das ihre Software im Bereich bis 9Hz runter kann. Da ist keinerlei Täuschung, sondern eben eine Tatsache.
Wenn ein Monitor wegen des Panels dazu nicht in der Lage ist, dann kann AMD nichts dafür.

Oder anhand des Beispiels: Corvette kann nichts dafür, wenn der Straßenbelag es nicht zulässt die Karre voll auszufahren.
 
Wäre ja nicht das erste mal dass Roy hier solche Gerüchte streut, ich hab's ja schon befürchtet. Naja, das Panel vom ROG SWIFT ist ebenso ein verdammt gutes TN Panel.

BiA Master schrieb:
Wie du schon schreibst nutzt Mantle die CPU-seitig zur Verfügung gestellten Ressourcen besser.
Dummerweise werden in den Grafikbenches immer Full-HD Auslösungen oder höher gefahren und ein übertakteter i7-4790K genommen, damit man bloß nicht im CPU-Limit hängt.
Mantle und Nvidias Wundertreiber bei Grafikkarten-Benchmarks zu vergleichen halte ich einfach für fatal, das machen leider viele hier im Forum.
Das stimmt shcon. Nun beim Test von Mantle selbst wurde bei CB darauf geachtet. Beim Vergleich Treiber vs. Mantle wurde zumindest 720p berücksichtigt - das ist durchaus noch eine Auflösung in der gespielt wird. Mit 1,8GHz CPU spielt aber so gut wie niemand deswegen wurde darauf wohl verzichtet. Aber sicher wäre auch hier ein Test mit Abstufungen wünschenswert gewesen. Es war aber auch klar, dass man keine Wunder erwarten können wird - keine Ahnung warum alle darauf beharren ihn als "Wundertreiber" zu bezeichnen. Klar sucht sich nVidia (immer wieder genau so wie AMD immer wieder) Szenarien raus die stark übertrieben sind. Und ja Mantle ist alles in allem stärker - besonders auf schwachen CPU's. Tatsache ist aber, dass so ein CPU-Bottleneck auf der Combo aus heutigen Gamer- CPUs+GPUs eher selten auftritt. Und mit DX12 ist wohl zu erwarten dass Mantle (zumindest unter Windows) hinfällig wird (oder eben wie bis jetzt ein Nischendasein führt). Es ist möglich, dass es unter Linux eher greifen wird oder die Vorteile hier auf OpenGL portiert werden - das wird sich weißen müssen. Jedenfalls ist nVidia hier in anbetracht der starken Rohleistung und dem geringen Performance-Gewinn bei heutigen Game-Systemen (und eben kommenden DX12) wohl (leider) nicht in Zugzwang (erst recht nachdem man sich von AMD nicht abhängig machen lassen möchte solange es nicht open source ist, würde das passieren könnte nVidia vl. was machen aber so wies aussieht ist hier DX12 früher da und Spiele-Hersteller haben eh genug zu tun als dass sie aus Lust und Laune für APIs entwickeln sofern nicht ein zu erwartender Gewinn ansteht). Ich verstehe wenn man sich seitens nVidia die Nutzung der Mantle-API wünscht (tu ich auch) aber ich sehe zumindest in der aktuellen Situation nicht, dass es passieren wird.

(EDIT: Vergessen - Welchen Test meinst du btw. das ist denke ich der einzige Test auf pcgh oder meinst du im Heft? /EDIT)

kisser schrieb:
Das ist doch egal, was da limitiert. AMD betreibt hier Augenwischerei mit ihrer Angabe von 9-240 Hz, weil es keine Panels gibt, die den Bildinhalt stabil halten bei so tiefen Frequenzen.
Aber man preist es als Vorteil gegenüber G-sync und die rote Anhängeschaft fällt mal wieder drauf rein. Siehe:
https://www.computerbase.de/forum/t...-samsung-ab-maerz-2015.1415571/#post-16578594
Da stimme ich dir zu. Nun, da die FPGA sehr flexibel sind bin ich sicher, dass weniger als 30Hz und mehr als 144Hz machbar wären. Nur wissen sie wohl einfach, dass es unter 30Hz wenig Sinn hat und Monitore mit mehr als 144Hz gibt es noch nicht und werden auch nicht wirklich benötigt. Und was das bez. Video soll weiß ich nicht. Für 24p sind (48), 96, 144Hz ideal und alle 3 Frequenzen sind bei G-Sync möglich. (Gut, bei 3D Vision wäre das ein Problem da der Emitter nur zw. 100-120Hz senden kann bzw. vermutlich die Brillen das eher nicht mitmachen aber G-Sync funktioniert - genau wie derzeit auch Freesync - nicht mit Lightboost/ULMB ist also erst mal (leider) kein Thema, ich denke es wird bald eher 3D Vision 3 kommen mit 144Hz Brillen weil man damals einfach dachte 120Hz wären genug oder man senkt den Bereich auf unter 96Hz - ich denke nicht dass die 4Hz bez. Blacklight ein Problem wären.). AMD "lügt" sicher nicht in dem Sinn dass es mit Freesync theor. machbar ist. (ich denke wie gesagt auch dass es bei G-Synch theor. machbar wäre). nVidia ist hier einfach "näher an der Realität" - dass das hier für AMD und gegen nVidia genutzt wird ist sicher nicht zu begrüßen!
 
Zuletzt bearbeitet:
für mich läuft FreeSync bis auf weiteres als "alter Wein in neuen Schläuchen".
Tests gibt es bislang nur für G-Sync Monitore, und die bescheinigen dem Feature eine gute bis sehr gute Funktionalität. Klar, die Preise dieser Modelle sind noch zu hoch, wird sich aber ändern, wenn da mal rund ein Dutzend verfügbar ist.

Von AMD und diesem Bericht entnehme ich letztlich, dass sie eine allgemein verfügbare Technik - Adaptive Sync - als ihre eigene darstellen, die aber offenbar mit erheblichen Nutzungseinschränkungen je nach Panel zu tun hat. Sprich, wo FreeSync draufsteht ist immer was anderes drin - eine denkbar schlechte Situation vor allem für den Endkunden.

Und dann in Bezug auf einige vorige Posts, AMD nimmt dann das theoretisch maximal machbare. Sollen sie es nur machen, dann werden die Monitor-Hersteller ein paar Rücksendungen mehr bekommen, wenn Kunden auf Basis von gestreckten Werbebehauptungen Produkte kaufen.
 
Zurück
Oben