Gaming Monitor für RTX 2080 Ti

Coolers schrieb:
.......
4K UHD 144Hz HDR Monitor
27" Acer Predator XB273KP ca. 1250€

Ich zocke hauptsächlich und die beste Bildqualität ist bevorzugt.
Da stelle ich mir die Frage, ob der 4K Acer nicht fast alle Kriterien erfüllt?

  • + Bildqualität
  • + HDR
  • + 144Hz
  • - 27"

Gar nicht mal so schlecht oder?
Ja, der XB273KP erfüllt schon einiges, ausser dass er mir zu klein wäre (habe lange genug 4K auf 28" gehabt und wenn schon 4K, dann muss m.E schon 32" sein). Außerdem ist es eigentlich nur ein kastrierter Flaggschiff Acer X27, dem FALD und "echte" HDR (HDR1000) amputiert wurden. Dafür war er schon paar mal im Angebot für unter 1000,wenn ich mich nicht täusche, wobei Acer X27 nie unter 1500€ kam (außer gebraucht bei Ebay). Außerdem sind 144Hz nur mit 2 DP Kabeln drin (dabei funktioniert HDR und G-sync nicht mehr). Was Du mit einem Kabel mit "allem AN" (HDR 10-bit ohne Chroma SS und G-sync) erreichen kannst - sind maximal 98Hz.
 
massaker schrieb:
Ja, der XB273KP erfüllt schon einiges, ausser dass er mir zu klein wäre (habe lange genug 4K auf 28" gehabt und wenn schon 4K, dann muss m.E schon 32" sein). Außerdem ist es eigentlich nur ein kastrierter Flaggschiff Acer X27, dem FALD und "echte" HDR (HDR1000) amputiert wurden. Dafür war er schon paar mal im Angebot für unter 1000,wenn ich mich nicht täusche, wobei Acer X27 nie unter 1500€ kam (außer gebraucht bei Ebay). Außerdem sind 144Hz nur mit 2 DP Kabeln drin (dabei funktioniert HDR und G-sync nicht mehr). Was Du mit einem Kabel mit "allem AN" (HDR 10-bit ohne Chroma SS und G-sync) erreichen kannst - sind maximal 98Hz.

www.youtube.com/watch?v=Y6q-QuNtLL8 34:15

Da sieht man dass es funktioniert und HDR sowie G-SYNC an ist. Der Farbraum wird lediglich begrenzt und soll laut dem Uploader kaum unterscheiden.
 
Zuletzt bearbeitet:
massaker schrieb:
1) Die meisten empfinden 60fps als nicht genug für schnelle Spiele. Dabei sind sie bereits mit 90-100fps super glücklich und ab 120 aufwärts merken kaum Unterschied. Deswegen auf jeden Fall >60Hz holen, sogar >75Hz ist sehr zu empfehlen. Und wenn Du einen mit 144Hz holst und Deine Graka diesem im Spiel bloß 80 bis 120 fps liefert, dann ist das trotzdem deutlicher Zugewinn gegenüber 60Hz@60fps. Vor allem wenn Du G-sync benutzt.

2) PG349Q hat genauso wie die anderen neuen 3440x1440 120Hz G-sync Monitore (AW3420DW oder 34GK950G) ein Panel, was rein theoretisch 10-bit (interpoliert durch 8bit+FRC) und sogar 144Hz darstellen könnte (siehe die Freesync Variante 34GK950F), ABER gleichzeitig den (günstigen) G-sync Modul der alten Generation, der sich auf DisplayPort ver. 1.2 beschränkt, folglich sind 100Hz in 3440x1440@8bit = Maximum, man OCed aber auf 120Hz. Bei DELL sind 120Hz anscheinend garantiert, bei den anderen als OC markiert und dann hast Du 105,110,115Hz zusätzlich im Menü, falls es bei 120Hz flimmern sollte (bei viel Pech klappt OC@120Hz nicht, ist aber eher selten).
Also kannst Du bei G-sync Monitoren, die bei 3440x1440 max. 120Hz können automatisch von DP1.2 UND 8 bit ausgehen. Siehst Du so einen mit >120Hz oder höhere Auflösung wie 3840x1600 @175Hz oder 3840x2160 @144, dann kannst Du von dem neuen G-sync Ultimate Modul ausgehen mit DP1.4 und 10bit. Kosten aber auch meist gleich das ~ doppelte.

falsch, der Asus hat entgegen dem lg und Alienware. Das alte lg Panel drin und ist ein natives 100 hz entgegen dem lg und Alienware die eigentlich 144 er sind und sogar runtergetaktet
 
IIxRaZoRxII schrieb:
falsch, der Asus hat entgegen dem lg und Alienware. Das alte lg Panel drin und ist ein natives 100 hz entgegen dem lg und Alienware die eigentlich 144 er sind und sogar runtergetaktet
Stimmt, Du hast wirklich Recht... Und dann behaupten sie er könnte 10-bit? Echt jetzt? 😅

P.S. : also wenn ich bei meinem Monitor auf 120Hz runter gehe, kann ich sogar 12-bit auswählen... Soll man den jetzt vielleicht als 12-bit Monitor deklarieren? 😅🤦🏻‍♂️
 
Zuletzt bearbeitet:
die Monitore mit G-Sync können nur 8 Bit, da das Modul schlicht nur 8 Bit zu lässt. Eigentlich ne frechheit was mit den G-Sync Modulen einem geboten wird. Künstlich beschnittene Anschlussvielfalt und dann noch mindere Bildqualität dank des Moduls

Bestes Beispiel ja am 950er LG. Ohne G-Sync Modul HDR-Vernünftige HDMI 2.0 Ports, 10Bit und 144HZ. Dank G-Sync dann nur miese Anschlüsse, 120hz,8bit und kein HDR mehr beim G Model
 
IIxRaZoRxII schrieb:
die Monitore mit G-Sync können nur 8 Bit, da das Modul schlicht nur 8 Bit zu lässt. Eigentlich ne frechheit was mit den G-Sync Modulen einem geboten wird. Künstlich beschnittene Anschlussvielfalt und dann noch mindere Bildqualität dank des Moduls

Bestes Beispiel ja am 950er LG. Ohne G-Sync Modul HDR-Vernünftige HDMI 2.0 Ports, 10Bit und 144HZ. Dank G-Sync dann nur miese Anschlüsse, 120hz,8bit und kein HDR mehr beim G Model
Na gut, das sind aber die 5+ Jahre alten Module, bei meinem geht das alles schon. Und HDR400 bei dem F-Modell (bitte 2x L am Ende! Model ist aufm Laufsteg!) soll auch nicht so pralle sein, lediglich 10-bit Farben können einen Unterschied ausmachen, da wo man sie zu Gesicht bekommt.
 
massaker schrieb:
Na gut, das sind aber die 5+ Jahre alten Module, bei meinem geht das alles schon. Und HDR400 bei dem F-Modell (bitte 2x L am Ende! Model ist aufm Laufsteg!) soll auch nicht so pralle sein, lediglich 10-bit Farben können einen Unterschied ausmachen, da wo man sie zu Gesicht bekommt.


völlig irrelavant wie gut hdr ist. Der Monitor KANN es von Haus aus, ebenso vernünftige Anschlüsse, 144HZ und 10 Bit. Wird jedoch vom G-Sync Modul komplett beschnitten
 
IIxRaZoRxII schrieb:
völlig irrelavant wie gut hdr ist. Der Monitor KANN es von Haus aus, ebenso vernünftige Anschlüsse, 144HZ und 10 Bit. Wird jedoch vom G-Sync Modul komplett beschnitten
Ja, Logik ist klar. ABER manche nehmen halt diese Nachteile in Kauf um G-Sync zu haben, weil :
1. Benutzen sowieso nur 1x DisplayPort, Rest egal. (Keine Spielekonsole zusätzlich dran, weil sie sich eh' mit Ultrawide schlecht vertragen,also wen juckt's)
2. 144Hz, ok, die 24Hz werden halt geopfert. Und unter 3440x1440 schaffen nur die stärksten Karten mehr als 120 fps, ist also ebenfalls für viele entbehrlich.
3. 10 Bit. Ok, für HDR-Spiele bringt schon etwas. Aber unter Windows hat man nach wie vor zu 99% 8-bit.
4. HDR400 - bezeichnen einige sogar als "no-HDR". Also nicht wirklich ein Gewinn und oft ist alte gute SDR-Modus sogar besser. Für HDR-Filme mit BT.2020 evtl ein Gewinn, juckt aber die meisten genauso wenig. Wenn mann HDR möchte, dann soll es schon mindestens einer mit HDR600 sein, am besten gleich HDR1000 - da merkst Du wirklich einen großen Unterschied. Am besten noch FALD oder OLED - klar, viel teurer, bringt aber Wow-Effekt und man will auch nicht mehr zurück.
Also sind das alles recht schwache Argumente und wenn einer sowieso immer auf nVidia Karten setzt - dann holt er sich lieber einen mit G-sync, so einfach ist es. Klar mit neuem Modul könnte man alle Nachteile umgehen - dann rechne aber schnell noch zusätzlich ca. 300-400€ drauf. Ohne FALD.
 
Nö das ganze ist recht simpler. Die Schrott Module werden schlicht in Zukunft nicht mehr verbaut werden. Zeigen ja nun schon die Nachfolger bei Lg. In keinem steckt mehr ein g Sync Modul
 
Zurück
Oben