News Acer XR341CK: 34-Zoll-LCD mit FreeSync kommt früher und ist günstiger

Bei solchen Daten spreche ich ebenfalls von einem Monitor. Bei 500 € liegt bei mir aber die schmerzgrenze. Wobei ... Mit gebrauchtverkauf von 2 x Asus pb278Q mit 2560x1440 würde sich das etwas nach oben verschieben.

​Würdet ihr da tauschen ? Preis mal rausgelassen.
 
Camicace schrieb:
Bei solchen Daten spreche ich ebenfalls von einem Monitor. Bei 500 € liegt bei mir aber die schmerzgrenze. Wobei ... Mit gebrauchtverkauf von 2 x Asus pb278Q mit 2560x1440 würde sich das etwas nach oben verschieben.

​Würdet ihr da tauschen ? Preis mal rausgelassen.

Habe momentan einen Dell 27" 1440p, für diesen Monitor würde ich sofort tauschen.
Das Ding ist auf dem Papier alles, was ich mir von einem Monitor erhoffe.

@Topic
Wetten das G-Sync DRM-Modul kann nur HDMI 1.4? :p
 
engineer123 schrieb:
ich kann nur hoffen, dass im Hintergrund wenigstens die Displayhersteller Druck bei beiden Volldeppen machen um gemeinsam beim nächsten DP-Standard eine EINZIGE Lösung bereit zu haben.
Was du forderst gibt es bereits längst als VESA Standard. Nennt sich Adaptive Sync und wurde von AMD eingereicht. Jetzt kann jedes VESA Mitglied und somit auch nvidia vollkommen ohne weitere Lizenzkosten Adaptive Sync unterstützen. Warum nvidia das nicht macht muss man nvidia fragen.

Dazu muss sich im übrigen auch AMD bewegen, wird letztlich eine Verhandlungssache sein.
??? Was soll sich AMD bewegen. AMD nutzt den VESA Standard, ihr Treibername dafür: FreeSync.
AMD unterstützt den VESA Standard
Nvidia unterstützt den VESA Standard nicht

So, bei wem ist jetzt Handlungsbedarf? :rolleyes:

Jeder, der diese Teile kauft, legt sich fest. Ist nervig und spricht einfach gegen die sonst herrschende PC-Gesamtkompatibilität, auch genannt Plug'n'Play.
Jeder der einen FreeSync aka Adaptive Sync Monitor kauft legt sich für den VESA Standard fest.
Jeder der einen G-Sync Monitor kauft legt sich mitunter für Jahre für nvidia und eine proprietäre Lösung fest.

iHabAhnung schrieb:
G-Sync war schon marktreif, als es Adaptive Sync noch gar nicht gab.
Aha, und wen interessiert das noch? Adaptive Sync ist ein VESA Standard den nvidia vollkommen lizenzkostenfrei unterstützen könnte.
Wenn G-Sync soviel besser als Adaptive Sync ist, dann können sie ja beides unterstützen.
Machen sie aber nicht. Scheinbar hält nvidia wohl nicht viel vom eigenen G-Sync wenn man den internen Wettbewerb scheut.
 
PiPaPa schrieb:
Aha, und wen interessiert das noch? Adaptive Sync ist ein VESA Standard den nvidia vollkommen lizenzkostenfrei unterstützen könnte.
Wenn G-Sync soviel besser als Adaptive Sync ist, dann können sie ja beides unterstützen.
Machen sie aber nicht. Scheinbar hält nvidia wohl nicht viel vom eigenen G-Sync wenn man den internen Wettbewerb scheut.

Sollte diejenigen interessieren, die hier davon erzählen, dass Nvidia bei der Entwicklung von G-Sync absichtlich einen "offenen Standard" ignoriert hat. Aber mit dir brauche ich sowieso nicht diskutieren.
 
Nvidia ignoriert auf jeden Fall jetzt bei Desktopmonitoren den VESA Standard. Das ist ein Fakt.
Genauso ist es ein Fakt das nvidia diesen VESA Standard unterstützen könnte wenn sue denn wollten.
Aber mit dir brauche ich sowieso nicht diskutieren.
Immerhin weißt du das du unterlegen bist :evillol:
 
Ich seh nicht, warum nvidia Freesync untestützen sollte, da der Standard doch praktisch nutzlos ist!

Freesync schaltet sich bei Framerates unter 60Hz aus. Da wir UHD-Gaming selbst mit einer Fury X utopisch.
Xfire soll ja auch nicht gerade gut auf der Fury laufen.

G-Sync geht bis auf 30 Hz runter; das ist absolut praxistauglich. Noch stärkere Framedrops sind sowieso unspielbar.

Ach ja: Bei Monitor-Preisen über 1000 Euro darf sich das Freesync nennen?
Oft kostet ein vergleichbares Modell vom selben Hersteller ohne "Freesync" 100 Euro und mehr weniger.
 
Zuletzt bearbeitet:
:rolleyes:... So schwer?
Adaptive Sync
VESA Standard
FreeSync
Name von AMDs Treiber(part), der Adaptive Sync anspricht
G-Sync
Proprietäre nvidia Lösung

Somit ist dein Beitrag, guenterm ziemlich sinnbefreit.

Keiner verlangt nvidia solle FreeSync unterstützten, was Blödsinn ist, weil dies ein AMD Treiber ist, sondern das nvidia den VESA Standard Adaptive Sync unterstützt.

Zum Preis bashing: dann gib halt 200€$ mehr aus für Wucher-Sync aus.
 
Zuletzt bearbeitet:
PiPaPa schrieb:
Keiner verlangt nvidia solle FreeSync unterstützten, was Blödsinn ist, weil dies ein AMD Treiber ist, sondern das nvidia den VESA Standard Adaptive Sync unterstützt.

Amen
 
Lach . Rechtschreibung auch? Danke natürlich immer für deine Ausführungen.

wie siehst du denn den Vergleich 34er 21:9 zu 2 x 27er?
 
guenterm schrieb:
Ich seh nicht, warum nvidia Freesync untestützen sollte, da der Standard doch praktisch nutzlos ist!

Freesync schaltet sich bei Framerates unter 60Hz aus. Da wir UHD-Gaming selbst mit einer Fury X utopisch.
Xfire soll ja auch nicht gerade gut auf der Fury laufen.

G-Sync geht bis auf 30 Hz runter; das ist absolut praxistauglich. Noch stärkere Framedrops sind sowieso unspielbar.

Ach ja: Bei Monitor-Preisen über 1000 Euro darf sich das Freesync nennen?
Oft kostet ein vergleichbares Modell vom selben Hersteller ohne "Freesync" 100 Euro und mehr weniger.

Freesync/Adaptive Sync geht bis 40 Frames /G-Sync bis 30. Wobei es nur eine Treibereinstellung ist. AMD könnte Freesync ohne weiteres auch auf 30 Frames setzen.
 
Zuletzt bearbeitet:
psYcho-edgE schrieb:
Lustig, die G-Sync Variante mit HDMI1.4, obwohl einige 900er schon 2.0 haben und die A-Sync mit HDMI2.0 obwohl keine AMD 2.0 hat. Wer sich so was wieder ausdenkt :freak: :p

Ganz einfach, FreeSync hat als offener Standard einfach die bessere Zukunft als das propietäre GSync.
Da beide eh nur über DP laufen, ist es HDMI-Standard erst mal wurscht.
Da FreeSync (bzw. Adaptive Sync) in Zukunft von nVidia und AMD untersützt wird, ist es eben das relevantere Modell und bekommt auch die bessere Ausstattung.
Das ist natürlich eine vermutung, keine Tatsache. Zumindest erscheint sie halbwegs logisch.

Ich würde mich jetzt auch für FreeSync entscheiden, obwohl ich mich nicht auf nen Grafikkartenhersteller festlegen möchte.
Nvidia wird sich früher oder später schon dem Standard beugen.
Und wenn nicht, wirds halt wieder ne AMD-Karte (sofern es diese dann noch gibt), würde eh immer AMD bevorzugen wenn nVidia nicht exorbitant besser ist einfach weil die Konkurrenz bereits den viel größeren Marktanteil besitzt. Da bei GPUs alles sehr ausgeglichen ist kein Thema, bei CPUs führt ja leider gerade kein Weg an Intel vorbei, ich hätte nix dagegen wenn sich das dann auch Ende 2016 ändert.
Aber das wird sich alles erst mit den neuen 14/16nm-Karten zeigen, die jetzige Generation (inkl. Fury X und Titan X) hat einfach nicht genug Power um die Auflösung des Monitors mit wirklich guten Framerates zu berechnen.
 
Zuletzt bearbeitet:
Jein, AMD arbeitet ja grade mit Realtek an einem modifizierten HDMI der auch A-Sync tauglich sein soll. Bin mal gespannt, wenn am Ende HDMi und DP als einzige Anschlüsse übrig bleiben könnten die meisten damit leben.
 
iHabAhnung schrieb:
Sollte diejenigen interessieren, die hier davon erzählen, dass Nvidia bei der Entwicklung von G-Sync absichtlich einen "offenen Standard" ignoriert hat. Aber mit dir brauche ich sowieso nicht diskutieren.

Komisch das NVidia dann bei Notebooks Adaptive Sync unterstützt bzw. dieses vor hat es aber bei den Desktopgrafikkarten nicht macht.

Ein Schelm wer böses dabei denkt. Fakt ist einfach das AMD einen offenen Standard benutzt der effektiv das gleiche macht und qualitativ auch nicht wirklich schlechter ist. Das haben entsprechende Tests ja schon gezeigt.

AMD macht bestimmt auch nicht alles richtig, aber in dem Punkt liegt der Ball klar im Spielfeld von Nvidia.
 
Dass Nvidia verstärkt auf Vendor-Lock-In* setzt bedarf an dieser Stelle keine Diskussion mehr. Ich bin noch gespannt, ob das Gerät sich auch wie der Dell um 750€ einpendelt.
 
Jawoll 4k ü 60Hz IPS. Jetzt noch knappe 1000€ weniger und nicht acer. Hatte erst nen kaputten LCD von denen. Aber in 2-3 jahren geht das hoff ich.
 
guenterm schrieb:
Ich seh nicht, warum nvidia Freesync untestützen sollte, da der Standard doch praktisch nutzlos ist!

Freesync schaltet sich bei Framerates unter 60Hz aus.
G-Sync geht bis auf 30 Hz runter; das ist absolut praxistauglich. Noch stärkere Framedrops sind sowieso unspielbar.
[/I][/B]

wow, hier ist so viel Halbwissen dabei, weiss man gar nicht wo man anfangen soll...

Freesync schaltet sich bei 40 hz ab, was aber technisch gesehen auch nicht wirklich stimmt und g sync bei 30. Nvidia kommt von 40 auf 30 fps runter da sie ab dieser Grenze Bilder einfach doppelt ausgeben, um so das Problem ein wenig zu umgehen. g sync hat ab 40fps genau die selben Probleme, nur hat Nvidia sich hier einen "Trick" einfallen lassen. Auch freesync könnte das, amd hat sich aber erst mal auf 40 fps festgelegt, wir werden sehen was da noch kommt.

Mal im Ernst, wenn man nicht weiss von was man spricht sollte man besser gar nichts sagen oder sich schlau machen.
 
Zuletzt bearbeitet:
Marcel55 schrieb:
An die Fury X kann man 3 von den Dingern packen und hat immer noch nen HDMI 1.4 frei.

3 von den Dingern,.... ist ja fast schon ein ganzer Kreis um sich rum. ;)
 
BeezleBug schrieb:
wow, hier ist so viel Halbwissen dabei, weiss man gar nicht wo man anfangen soll...

Freesync schaltet sich bei 40 hz ab, was aber technisch gesehen auch nicht wirklich stimmt und g sync bei 30. Nvidia kommt von 40 auf 30 fps runter da sie ab dieser Grenze Bilder einfach doppelt ausgeben, um so das Problem ein wenig zu umgehen. g sync hat ab 40fps genau die selben Probleme, nur hat Nvidia sich hier einen "Trick" einfallen lassen. Auch freesync könnte das, amd hat sich aber erst mal auf 40 fps festgelegt, wir werden sehen was da noch kommt.

Mal im Ernst, wenn man nicht weiss von was man spricht sollte man besser gar nichts sagen oder sich schlau machen.

Keine Ahnung warum hier nun alle so Abgehen. Ihr findet FreeSync toll? Super kauft euch nen Monitor damit und freut euch eures Lebens. Ihr Nutzt sowieos Nvdida dann nehmt nen G-Sync.

Wenn man entsorechenden Aussagen von Bildschirmherstellern glauben darf ist es im Moment so, das G-Sync eine Tatsächlichr Komunikation mit dem Monitor macht und laut Bildschirmherstellern im Moment die besser Lösung ist. Entsprechend auch in einigen Artikeln Nachlesbar. FreeSync ist eher eine Vorraussage wie viel Frames ca. Kommen werden und deshalb, ebenfalls laut Bildschirmherstellern noch nicht so ausgereift. Auch Interessant das die Meisten Bildschirmhersteller erstmal G-Sync Monitore entwickeln und ankündigen und dann Freee Sync.

Und toll das AMD nen Offenen Standard aus Ihrem Ding macht und somit direkt die Aussage trifft, das ist offener Standard kann jeder machen. Entwickelt hats aber AMD und nicht VESA. Genauso hat Nvidia G-Sync. Klar sie habens nicht zu nem Offenen Standard gemacht, da sie schließlich anders als AMD auch eine entsprechende Hardware für den Monitor entwickelt haben etc. Aber es wär genau so möglich das AMD G-Sync in ihren nächsten Grafikkarten nutzt. Da es auch alte Karten können scheint das eher weniger Hardwareabhängig zu sein.

Wie auch immer. Es gibt immer 2 Seiten der Medalie. Da AMD für mich seit einigen Jahren einfach Uninteressant ist hab ich Nvidia und ich werd auch dabei bleiben und deshalb auch n G-Sync Monitor holen und kein Freesync. Mag seind as die etwas Teurer sind aber in den letzten Jahren hatte Nvidia bei den releases von games meist die schnelleren und besseren Treiber am start (siehe Project Cars...) und auch entsprechende Technologien entwickelt und in Spiele Implementiert die auch einen entsprechenden Mehrwert bieten. Deshalb bin ich auch bereit etwas mehr bei nem G-Sync Monitor und bei ner Graka zu zahlen da es nacher einfach läuft.

Aber das ist alleine meine Meinung und die muss auch keiner Teilen. Aber da alle hier ihren Senf ablassen will ich das auch mal machen. Gruppenzwang und so.

In diesem Sinne

Gesented von meinem Smartphone
 
BeezleBug schrieb:
Nvidia kommt von 40 auf 30 fps runter da sie ab dieser Grenze Bilder einfach doppelt ausgeben, um so das Problem ein wenig zu umgehen. g sync hat ab 40fps genau die selben Probleme, nur hat Nvidia sich hier einen "Trick" einfallen lassen. Auch freesync könnte das, amd hat sich aber erst mal auf 40 fps festgelegt, wir werden sehen was da noch kommt..
Sorry, dich da berichtigen zu müssen. GSync geht tatsächlich bis 30FPS/Hz runter, und unter dieser Grenze arbeitet GSync mit Verdoppeln der Bilder, weshalb bei bis zu 15FPS noch immer GSync funktioniert. Und ich muss sagen, dass selbst 25FPS noch sehr flüssig wirken, selbst mit Framedrops auf 20FPS runter, deutlich besser als <40FPS bei FreeSync. Und ja, ich habe beides schon ausgiebig getestet.
Der Umstand, dass ich eine AMD-Grafikkarte habe und gerne den offenen Standard unterstützem würde, ist der Grund, warum ich kein GSync habe, und die für meine Vorlieben noch nicht ausgereifte Technik/Software von FreeSync ist der Grund, warum ich keinen solchen Monitor habe. Ich hoffe sehr, dass bis zu meinem nächsten Grafikkartenkauf das Feature so gut ist wie GSync, dann bleibe ich bei AMD.

BTT:
Funktionieren mittlerweile alle Spiele ordentlich bei dieser Auflösung?
 
Zuletzt bearbeitet:
Zurück
Oben