Test Corsair Xeneon 27QHD240 im Test: Der OLED-Traum vieler Spieler wird wahr

kachiri schrieb:
Die Leute kaufen für 2000 Euro eine Grafikkarte aber wollen für 1000 Euro die eierlegende Wollmilchsau beim Monitor?
Ich kann dir da halt nur persönlich drauf antworten und ja ich würde es erwarten.
Man schaue sich die LG Oled 42 Zoll an, da können sie es ja auch ;)

@MR2007
Es geht ja darum welche Wünsche oder Anforderungen man an ein zukünftiges Display hat.
Und die Steam Survey ist auch gut verzerrt durch die Millionen asiatischen Internetcafes.
 
Botcruscher schrieb:
Erschreckend ist eher, dass sich low ppi Auflösungen unterhalb von UHD überhaupt noch verkaufen. Im TV Bereich sind die lange komplett tot. Abgesehen von Restbeständen hat UHD nicht mal mehr einen Aufpreis.
Quatsch für UHD braucht man zwingend eine highend Grafikkarte das kann sich selbst in Deutschland längst nicht jeder leisten. Außerdem macht UHD keinen Sinn bei kleineren Größen.
 
hat das teil jetzt einen lüfter? ist das schon geklärt?

und gibts monitore die einen helligkeitssensor haben und die monitorhelligkeit automatisch anpassen wie viele tv z.b.? also für arbeiten am tag rel. hell eingestellt und zocken am abend bei schummerlicht dann etwas gedimmt?
 
Wenn es das Paneel in günstiger schon von LG gibt, warum dann das hier für teurer kaufen?
 
Ich habe den Benq Zowie 2566k für die E-Sports und bin auch echt zufrieden, die Frage ist, ob dieser OLED Monitor für E-Sport geeignet ist , speziell CSGO , APEX, und VALO wenn man Benq Zowie mit dieses vergleichen würde.

EIDT:
Ok, im Fazit wird verdeutlicht das die InputLag zu hoch sei, das geht dann gar nicht, denke es wird noch 1 bis 2 Jahre dauern bis die OLEDS Standard werden.
 
Zuletzt bearbeitet:
Wie kann CB eine Empfehlung aussprechen ⁉️

150 nits sollten zum abraten führen oder zumindest deutlich als negativer Punkt markiert werden. Und die 28 nits als minimale Helligkeit sind auch unbrauchbar für mich.

Da spielt die burnin Gefahr schon keine Rolle mehr.
 
bondki schrieb:
Kannst du lesen? In keiner Tabelle im Artikel steht DQHD.
Hab ich auch nicht behauptet (lies halt genau, was ich schreibe :evillol: ), trotzdem Gibt es DQHD - ich wollte nur wissen was für dich DQHD ist und was UWQHD (wenn du eh schon dabei bist die Definition der Auflösungen neu zu verteilen).

bondki schrieb:
Ansonsten bleibt meine Aussage korrekt, QHD ist 1440p, WQHD ist entsprechend das 21:9 Format davon.
Hätte eine kurze Recherche deinerseits auch bereits ergeben.
Ne die hat ergeben, dass WQHD ein 16:9-Format ist und zwar 2560x1440.
Computer Bild, Chip, Alternate, Wikipedia, Dell und ich kann das sehr lange so fortsetzen, das ist halt nur mal die erste Seite bei Google - ich find nur fast nichts, außer ein paar wirklich unqualifizierte Forenbeiträge und ein paar falsch betitelte Shop-Produkte, wo behauptet wird WQHD sei 3440x1440.

bondki schrieb:
Da es WQHD so nie gab im englischen Raum
Doch, die nennen das auch WQHD und wenn du willst hau ich dir dafür auch noch 10 Quellen rein.

Deswegen noch mal meine Frage: Wenn für dich 3440x1440 WQHD ist, was ist dann bitte für dich UWQHD und was ist für dich dann DQHD (Du darfst auch gerne recherchieren)? Danach schau mal bitte was quarter HD ist und spätestens dann dämmert dir ggf. warum man bei QHD und qHD angefangen hat ersteres umzubenennen in WQHD.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Maine, Celinna, ascer und eine weitere Person
Was ist mit VRR Gamma Flimmern?

Was für mich bei G-Sync kompatiblen Monitoren nervt ist der Blackout beim raustabben bei Spielen mit anderer Auflösung als des Desktops. Das passiert bei mir auch bei einem Spiel mit derselben Auflösung.

„Zero Dead Pixel Garantie“ ist eigentlich gelogene Werbung. Ich würde bei Zero Dead Pixel Garantie schlicht zero dead pixel verstehen, nichts anderes.
 
"Der OLED-Traum vieler Spieler wird wahr" oder, wie ich dachte, "endlich ein RGB-OLED-Allround-Gaming-Monitor". :D

Leider muss ich weiter hoffen, aber bis es das mal in UWQHD+ gibt, gibt es wahrscheinlich schon Micro-LED... :rolleyes:
 
  • Gefällt mir
Reaktionen: ChrisM
Vexz schrieb:
Der Preis ist mir persönlich zu hoch. Aber Grafikkarten und Monitore sind in den letzten Jahren echt teuer geworden. Zudem stört mich das externe Netzteil. Bin ich nie ein Fan von.

Was mich mal interessieren würde: Warum ist WQHD eigentlich für einige hier zu wenig? Solange man nicht grade eine RTX 4090 in der Kiste hat, glaube ich, dass das Zocken immer noch eine quälende Last für die Grafikkarte mit 4k sein muss. Selbst mit meiner RTX 3090 habe ich bei den meisten aktuellen Titeln Probleme, bei WQHD auf über 100 FPS in Spielen zu kommen. Zumindest mir persönlich sind dann ein paar mehr FPS lieber bei einer etwas niedrigeren Auflösung, als nur etwa 60 FPS bei 4k. Und ja, ich hatte schon mal einen 4k Monitor und kann das deshalb (für mich) beurteilen.
Genau das verstehe ich nicht, dachte schon ich wär der einzige :-) will nun auch auf wqhd wechseln und habe mich explizit gegen 4k entschieden aufgrund der Leistungsthematik. Jetzt fehlt nur noch n Monitor der HDR600+, 100hz+ , und auch in der Bildbearbeitung als Gamingmonitor wenigstens halbwegs zu gebrauchen ist.
 
@Thares
 
Kilinari schrieb:
Positiv am LG:
  • Gute Lesbarkeit von Schrift ohne dieses verschmieren wie bei den Samsung Panels
    g
Neutral:
  • Der Lüfter... "eigentlich" hört man ihn nie, ist genau so "laut" wie mein Rechner wenn alle Lüfter bei 600 RPM im idle drehen.
  • Software von LG .
  • Status LED: Sie leuchtet wenn der Bildschirm an ist, das war's. Es gibt keine Indikation ob der Bildschirm gerade im Standby ist oder gerade OLED Pflege (Image Cleaning) betreibt (wo man ihn bloß nicht vom Stromnetz trennen soll).
Ich find die Lesbarkeit wegen der Subpixelanordnung völlige Grütze… Da braucht es schnellstmöglich ein ClearType-Update, so machen die Farbsäume echt viel von der Bildklarheit kaputt.

Frage: Nen Lüfterrattern hast du aber nicht? Denn abgesehen davon ist das Lüftergeräusch wirklich unproblematisch…

Und: Der hat ne Status-LED? 😬

Mardock schrieb:
Quatsch für UHD braucht man zwingend eine highend Grafikkarte das kann sich selbst in Deutschland längst nicht jeder leisten. Außerdem macht UHD keinen Sinn bei kleineren Größen.
Bezüglich dem Punkt Leistungsanforderung gebe ich dir voll recht, aber bei der Aussage zur Sinnhaftigkeit nicht.

Bei Telefonen wird geflennt wenn die Dinger nur 1280x720 oder eine äquivalente Auflösung haben… Aber an PCs gibt man sich mit mickrigen ~100-110dpi zufrieden?

Ich habe als Zweitmonitor ja nen U28E590D dastehen, das sieht einfach meilenweit besser aus wie WQHD… Alles ist deutlich schärfer.
 
  • Gefällt mir
Reaktionen: bad_sign und iceshield
nciht schrieb:
Ne die hat ergeben, dass WQHD ein 16:9-Format ist und zwar 2560x1440.Dell und ich kann das sehr lange so fortsetzen...

Der Witz ist, dass bei Dell im englischen Shop 2560x1440 als QHD bezeichnet wird und bei deinem verlinkten italienischen(?) Dell-Shop auch.
Ist allerdings auch egal, da das alles keine Primärquellen sind und demnach nicht belastbar (Wikipedia.com verlinkt als Referenz auch auf Dell und Wikipedia.de auf irgendein random Forum)

Da alle HD-Formate sowieso schon Widescreen sind und weder HD noch FHD oder UHD ein W in Namen haben, macht das aber auch deutlich mehr Sinn.

Allerdings wird 3440x1440 auch immer als UWQHD bezeichnet.

Ich würde mal behaupten, es macht keinen Sinn, sich darüber aufzuregen, wer was wie nennt. Letzten Endes ist nur die Auflösung selbst eindeutig identifizierbar, da diese ganzen Kürzel nicht übereinstimmend festgelegt wurden, sondern einfach Marketingbegriffe zur Unterscheidung zu sein scheinen.
Ergänzung ()

Harry2k schrieb:
Genau das verstehe ich nicht, dachte schon ich wär der einzige :-) will nun auch auf wqhd wechseln und habe mich explizit gegen 4k entschieden aufgrund der Leistungsthematik. Jetzt fehlt nur noch n Monitor der HDR600+, 100hz+ , und auch in der Bildbearbeitung als Gamingmonitor wenigstens halbwegs zu gebrauchen ist.

Ich habs mir einfach gemacht. Einen relativ großen (43") Monitor mit 4K, HDR1000, 144Hz gekauft und wenn die Leistung nicht reicht, spiele ich auf 2560x1600 oder 3840x1080 skaliert und rutsche ein Stück näher ran. Bei 99% der Spiele reicht die 3090 ja auf 4K und wegen den paar AAA-Rohrkrepierern, die 5% besser Grafik mit 50% höherer Leistung erkaufen, kauf ich mir doch keinen schlechteren Monitor.
 
  • Gefällt mir
Reaktionen: Blende Up
Bedenken: no BurnIn Versprechen gabs schon oft, grade Corsair, die mit Panels nix am Hut haben, werden hier nichts eigenes entwickelt haben.

rausfinden welche andere monitore das selbe Panel nutzen oder nutzen werden, denn bei Corsair zahlst idR 150-200eur drauf fuer nix.
 
Hito360 schrieb:
rausfinden welche andere monitore das selbe Panel nutzen oder nutzen werden, denn bei Corsair zahlst idR 150-200eur drauf fuer nix.
Sollte ja ned schwer sein,gibt z.Z nämlich nur 1 27,WQHD 240Hz OLED Panel^^.
 
Fliz schrieb:
Wenn es das Paneel in günstiger schon von LG gibt, warum dann das hier für teurer kaufen?
Allein wenn LG nicht die Garantie geben würde - lohnt sich der Aufpreis.
Trotzdem insgesamt noch immer eine schlechte "Wette". 3 Jahre perfekte Nutzungsdauer für über 1K €...
 
UnicornKebap schrieb:
Was mich interessieren würde ist, ob Oled Panels bei Free Sync ohne flackern funktionieren?
Nein, alle flackern mehr oder weniger, manch einer sieht es andere wiederum nicht. Es geht eben nichts über ein ordentliches G-Sync Modul, gibt es aber leider nicht.

b3nb0hne schrieb:
Seit Dienstag habe ich den LG Oled zuhause, jetzt der Corsair.... hm keine Ahnung was ich da jetzt nehmen soll :D
Den ASUS ROG Swift PG27AQDM. :D

Fliz schrieb:
Wenn es das Paneel in günstiger schon von LG gibt, warum dann das hier für teurer kaufen?
Nur weil das gleiche Panel verbaut ist sind die Monitore nicht gleich. Der ASUS ist z.B. bedeutend heller als der LG und hat keinen Lüfter. Die Unterschiede zum Corsair kenne ich nicht.
 
  • Gefällt mir
Reaktionen: UnicornKebap und firejohn
"Schatz, ich möchte eine Exceltabelle aufmachen. Ziehst du bitte kurz die Vorhänge zu?"

142nits. Lächerlich.
 
Zurück
Oben