News 32"-Monitore: Asus XG32VQ und LG 32GK850G mit WQHD & 144 Hz im Detail

Ich habe vor einigen Jahren Curved Screens gesehen. Seitdem wollte ich sowas haben.

Habe nun den AOC Agon 31.5". Tiefer Schreibtisch ist Pflicht, sonst ist bei 2560x1440px optische Pixelmatsche angesagt, bei mir habe ich die fehlenden 10cm nach hinten durch eine Wandhalterung gewonnen.
Ist das Gerät zu nah, empfinde ich insbesondere im äußersten rechten Viertel Farben mit grau als mit Horizontalen Rasterlinien versehen. Dies mag der VA-Technik geschuldet sein.

Wenn der Monitor auf >100Hz läuft und z.B: ein Standbild darstellt indem grelle, saftige Farben, dunkle UND Helle Elemente zusammensind, dann flimmern die Hellen teile WIE SAU. Man denkt fast der Monitor würde hochgehen. Auf 60Hz hingegen ist alles in Butter.
Ich lehne mich also mal aus dem Fenster und sage: Das VA kann garnicht so schnell, wie es soll.

Beim Samsung 32" Curved genau das gleiche. Die Aussage Flimmerfrei empfinde ich daher bei debeiden Produkten als blanke Lüge und Täuschung.
Leute, die das gelöst haben, können mir das gerne beleuchten.

Schriftunschärfe kann ich beim AOC nicht entdecken, beim Samsung schon.

Ich habe also einen 144Hz Monitor der auf 60 läuft. Leider in der Größe mit der Auflösung alternativlos, und so behalte ich ein aus meiner Sicht nicht ausgereiftest Produkt im Betrieb. Weil ich unbedingt Curved mit WQHD in 32" möchte. Eigentlich wäre 29" super, aber sowas gibts ja nicht. 27" ist mir einen Tick zu klein.

Bleibt zu hoffen, dass es mit dem ASUS Produkt hier besser wird...
Trotz allem kann ich die Aussage "Curved entlastet die Augen" nur bestätigen: Selbst nach 10h+ vor der Glotze habe ich "keinen dicken Kopf" oder brennende Augen. Mit nem Apple TB Monitor, bzw. LG5k ist es auf der Arbeit bei langer Nutzungsdauer schon ab 3-4h anstrengend.
 
Zuletzt bearbeitet:
Caramelito schrieb:
Der nächste wird aber ein 32", 4k, 144hz (wenn verfügbar/möglich in Zukunft!)

Wird dir ohne Skalierung keinen Spaß machen, das ist noch zu klein für UHD. Und mit Skalierung hat man dann wieder seinen Spaß mit nicht skalierenden Anwendungen wie Steam etc.
UHD ist für 40" perfekt, auch bei meinem 43" ist es noch gut wenn man nicht 30 cm davor sitzt.
 
drago-museweni schrieb:
Das denke ich mir eher bei deinem Kommentar, er schrieb nichts von einem 24" 1080p Monitor, mit 91,79ppi ist einfach finsteres Mittelalter selbst für einen Monitor, an einen Hauptbildschirm am PC hätte ich andere Anforderungen als den alten Matsch, da sollte es nach so langer Zeit doch mal etwas mehr an Ansspruch geben.

1440P lasse ich mir bei 24" noch gefallen auch vielleicht noch bei 27" aber dann ist Schluss.

Da scheiden sich jetzt mal die Geister. FullHd auf 24" ist seit Jahren Standard in vielen Arbeitszimmern. Ich häng momentan noch auf einem 22" 16:10 Monitor mit 1680xirgendwas zu Hause, _da_ siehst du Pixel. Bei einem 24" und normalem Sitzabstand nehme ich die beim 24" FullHd zumindest nicht als störend wahr (wenn ich mich konzentriere sehe ich mit viel gutem Willen bei normalem Sitzabstand auch einzelne Pixel). Also mir persönlich reichen 91 PPI absolut. Dazu muss man vllt auch mal sagen: an einem 33" Monitor wirst du auch nicht so nah sitzen wie an einem 24" -> ergo kommt der einem dann auch schärfer vor.
 
mambokurt schrieb:
Dazu muss man vllt auch mal sagen: an einem 33" Monitor wirst du auch nicht so nah sitzen wie an einem 24" -> ergo kommt der einem dann auch schärfer vor.

Vielleicht nicht ganz so nah, aber wenn man eintauchen will schiebt man ihn deswegen auch nicht einen Meter von sich weg.
Für was sonst kauft man sich schon einen größeren Monitor?
 
Richtig.
Der Monitor kommt schließlich auf den gleichen Schreibtisch, der vorher auch schon da war.
 
Asus setzt auf den offenen Standard Adaptive-Sync und unterstützt damit AMD FreeSync, während LG ein Modul für das proprietäre Nvidia G-Sync besitzt, was höhere Kosten bedeutet.
Das ist ja wohl Quatsch.
Asus setzt nicht auf Adaptive Sync, sondern auf AMD Freesync, was ebenfalls proprietär ist. Erst recht die Version 2 mit AMDs proprietärer HDR API.
Freesync verwendet nur einen offnen Standard für das Synchronisationsverfahren, was G-Sync nicht tut. Das ändert aber nichts an der Tatsache, dass FreeSync und G-Sync beides propritäre Techniken sind.
 
Mugi schrieb:
1080p auf 24" haben eine Pixeldichte von 91,79 PPI.
1440p auf 32" haben eine Pixeldichte von 91,79 PPI.

Hauptsache erstmal seine Meinung kundtun. ;)

Das stimmt, allerdings ist die Pixeldichte heutzutage nicht mehr zeitgemäss. Auf einem 24'' FHD Monitor kann ich die Pixel zählen.
 
spawa93 schrieb:
Das stimmt, allerdings ist die Pixeldichte heutzutage nicht mehr zeitgemäss. Auf einem 24'' FHD Monitor kann ich die Pixel zählen.

Kommt immer drauf an, wie weit man vom Bildschirm entfernt sitzt. ;)
 
immortuos schrieb:
Ändert aber auch nichts daran, dass Freesync auf Adaptive Sync aufbaut und damit kein proprietäres Modul verbaut werden muss. Nvidia könnte also genauso Adaptive Sync nutzen, dann könnten Monitore beides gleichzeitig unterstützen, tun sie aber nicht, bringt ihnen ja einen Haufen Asche.
So einfach ist das aber auch nicht. Die Scaler sind ja schon speziell auf AMDs Freesync angepasst.

http://www.amd.com/en-us/press-releases/Pages/support-for-freesync-2014sep18.aspx
Finally, the initial AMD FreeSync™ technology-compatible scalers from MStar, Novatek and Realtek will empower monitor vendors with robust DisplayPort™ receivers accommodating of FHD and QHD panels up to 144Hz, or UHD panels up to 60Hz.
Bloß weil die Scaler in den Freesync Monitoren auf Adaptive Sync setzen heißt das noch lange nicht, dass nVidia die auch so einfach verwenden kann. Man wird also nicht einfach einen Freesync Monitor auf einmal mit einer nVidia Karte betreiben können, aber es dürfte auf der anderen Seite auch kein großes Problem für die Scalerhersteller sein beide Hersteller gleichzeitig zu unterstützen.

Das Ganze gilt mittlerweile aber sowieso nicht mehr, seitdem AMD sine HDR API mit Freesync 2 gekoppelt hat. Diese API ist nicht offengelegt, kein Standard und funktioniert nur auf Freesync-Monitoren und AMD Grafikkarten.
es unterscheidet sich in dieser Hinsicht also alles kein bischen von G-Sync und das Argument mit dem offnenen Standard können sie sich seit FreeSync 2 in die Haare schmieren.
 
Zuletzt bearbeitet:
Zurück
Oben