Test MSI MEG 342CDE QD-OLED im Test: Schneller Gaming-Monitor mit 175 Hz und HDMI 2.1

JMP $FCE2 schrieb:
Nö. 60 Hz auf einem CRT sind allein deswegen unbrauchbar, weil das flimmert wie Hölle. 85 Hz müssen es mindestens sein.
War bezogen auf die Bildschärfe in Bewegung, aber ja klar, CRT 100hz gerne gesehen, aber dann braucht man iirc ja noch mehr hz am LCD um da mitzuhalten.
 
  • Gefällt mir
Reaktionen: iron_monkey
Apocalypse schrieb:
War bezogen auf die Bildschärfe in Bewegung, aber ja klar, CRT 100hz gerne gesehen, aber dann braucht man iirc ja noch mehr hz am LCD um da mitzuhalten.

Das war mir nie wichtig. Den Samsung 2233RZ (120 Hz TN) habe ich als Nachfolger des CRT nicht als Kompromiss oder Rückschritt empfunden.

Beim Monitor danach hatte ich die Wahl zwischen mehr Bewegungsschärfe (Backlight Strobing) und G-Sync, und habe mich bewusst für G-Sync entschieden, auch bei Quake Live. Die schärferen Gegnerumrisse habe ich zwar gesehen, aber dafür Tearing in Kauf zu nehmen, war für mich keine Option. Verzicht auf 120+ Hz erst recht nicht.
 
  • Gefällt mir
Reaktionen: Apocalypse
WebBeat84 schrieb:
Keine 1300€ für nen Top Monitor ausgeben wollen aber alle Grafikkarten für den Preis verbaut. Beides ist genauso wichtig für gute Grafik und Bild, wieso dann beim Monitor sparen wollen und nicht bei der Grafikkarte?
Ach das ist doch Quatsch. Wen man 1k für nen GPU hat, dann hat man vermutlich auch 1k fürn Monitor über. Nur sind die meisten weder bereit 1k für nen Monitor noch 1k für ne GPU zu bezahlen. Diese Behauptung ist einfach unsinn. Selbst in diesem Forum, wo es schon einige Entusiasten unterwegs sind, gehen diese Mondpreise den Meisten doch aufn Sack.

1706644195079.png

Auch wen "jeder" gern nen Porsche fahren würde, fahren die meisten "bestenfalls" nen BMW, Audi oder Mercedes. Realität sieht anders aus.

Und man darf auch nicht vergessen, eine GPU altert viel schneller als ein Monitor. Und nen funktionierenden Monitor durch einen anderen auszutauschen, da fällt es für viele nochmal schwerr 1k hinzublättern.
 
  • Gefällt mir
Reaktionen: Nefcairon
ich warte lieber auf den MSI MPG 321URX. 32" 4K QD-OLED 2nd gen und alle möglichen extras, leider etwas hässlich von der Rückseite aber der wirds wohl trotzdem 2mal..
 
JMP $FCE2 schrieb:
Beim Monitor danach hatte ich die Wahl zwischen mehr Bewegungsschärfe (Backlight Strobing) und G-Sync, und habe mich bewusst für G-Sync entschieden, auch bei Quake Live. Die schärferen Gegnerumrisse habe ich zwar gesehen, aber dafür Tearing in Kauf zu nehmen, war für mich keine Option. Verzicht auf 120+ Hz erst recht nicht.
Jaja, den Perfekten Monitor ... wird noch ne Weile dauern, bis es den gibt, falls man überhaupt mal so weit kommt.

Ich muss zugeben, ich vermisse die CRTs und Analog-TV, besonders beim Fußball schauen, während mit Tearing bei 120hz praktisch nicht mehr auffällt. Hätte meiner Frau nicht nachgeben sollen als der 30 Jahre alte Grundig rausflog, aber man spart schon sehr viel Platz. Zum Glück schaue ich eh kein Fußball mehr.
 
  • Gefällt mir
Reaktionen: s!r.einSTein
Atnam schrieb:
Es gibt auch andere Geräte die günstiger sind und halt weniger Hertz haben.
seid dem ich AFMF nutze möchte ich garnicht weniger hz. 120hz ist unterste grenze, 144hz is ok. 175hz währen 86fps limit das passt richtig gut.
 
Ich sehe den Mehrwert für den massiven Mehrpreis gegenüber z.B. eines Philips Evnia 34M2C8600 nicht. Da dürfte das gleiche Panel verbaut sein, die Anschlüsse sind nahezu identisch, RGB-Licht hat der auch satt... das Gehäuse ist vielleicht etwas "einfacher" gehalten, aber das wars. Oder übersehe ich was?

P.S. weil ich ein paar mal gelesen habe, dass das Format nix zum arbeiten ist... sehe ich nicht so. Über die 3440 Pixel verteile ich meist zwei, manchmal drei Fenster, was bei meinen üblichen Tätigkeiten gut funktioniert. Vorher hatte ich zwei mal 2560p, was insgesamt mehr Fläche bot, aber von mir selten voll genutzt habe. Meistens habe ich auf dem linken Monitor aktiv gearbeitet, während sich rechts Teams und Outlook gekuschelt haben - nun ist halt entweder Teams oder Outlook im Vordergrund.
Notfalls steht neben dem 34 Zöller noch einer der beiden 27 Zöller, den ich bei Bedarf einfach zuschalte - meistens für irgendein Video...

Jetzt im Moment befindet sich CB links und rechts spielt Youtube.

Ich arbeite zwei Tage pro Woche im Homeoffice und habe den Philips ganz bewusst dafür ausgesucht, weil ich (wie am getesteten MSI) meinen Firmenlaptop per USB-C anschließen kann, während der private PC über DP feuert. Dank KVM-Funktion muss ich kein einziges Kabel umstecken, wenn ich vom Laptop auf den PC oder zurück wechseln will. Gehört sich als Standard an JEDEN Monitor.

Achja, schwarze Schrift auf weißem Untergrund, wie hier auf CB im Editor, macht bei mir keinerlei Probleme. Aber die Wahrnehmung der bunten Schatten ist wohl ziemlich individuell...
 
@Frank Paar Anmerkungen zum Test:

In der Auflistung der Spezifikationen sollte CB auf jeden Fall Info zum Coating (Art und Grading, etc.) aufnehmen.
Für nicht wenige ein KO-Kriterium, da man auf ein mattes Panel keine Lust mehr hat, nachdem man ein glossy bzw. semi-glossy in all seiner Pracht gesehen hat. Matt ist nur nett, wenn ansonsten zu viele Lichtreplexionen im Bild einen nerven würden. Für Office-Work wäre ein mattes Panel, welches Reflexionen besser unterdrückt, vorzuziehen. Wenn Gaming Priorität hat, dann sollte auf jeden Fall für die höhere Brillanz des Bildes semi-glossy oder glossy genommen werden.

Im Test wird geschrieben:

Die matte Beschichtung erzeugt im ausgeschalteten Zustand erneut ein leicht graues Bild.

Stimmt das? Ist das Coating nicht das übliche QD-OLED semi-glossy Coating wie schon beim Dell DW und DWF? Die matte Beschichtung kann nicht der Grund für das leicht graue Bild sein, eher die Beschichtung an sich. Denn bei den semi-glossy Panels vom DW/DWF ist die gräuliche Optik nicht anders.

Der Dell DWF OLED ist im Forum bei nicht wenigen Käufern durch sein lautes Spulenfiepen negativ aufgefallen.
Bei OLED-Monitoren, die ein im Gehäuse eingehautes Netzteil haben, sollte der Tester in kommenden Tests auf diese Thematik eingehen. Monitore mit einem externen Netzteil sollten ein geringeres Problem darstellen, da die Quelle des Störenfrieds sich weiter weg vom PC-User befindet. Aber selbst dann wäre es nett, wenn man das im Test erwähnen würde, sollte ein Spulenfiepen auf der Entfernung wahrnehmbar sein.

Bin kein Fan von solchen "Cheat"-Features, die direkt im Gerät eingebaut sind und dann noch gross beworben werden. Reicht mir schon, wenn Leute in kompetitiven Spielen Gamma-Wert hochjagen, Color Vibrance hochballern, und sich so einen deutlichen Vorteil verschaffen. Kann man nicht einfach auf einem Level spielen?

Vielleicht nervt mich das nur, weil man als AMD-GPU-User nicht einfach mal so wie im Nvidia-Treiber den Gamma-Wert in einem Spieleprofil ändern kann :D
Keine Ahnung, vielleicht gibts da bessere Methoden für AMD-User, aber die Gamma-Einstellung geht bei mir nur über das Laden eines anderen Kalibrierungsprofils für den Monitor (mit höher eingestellem Gamma-Wert).
Wäre ja zu einfach, wenn der Monitor selbst eine Gamma-Einstellung bieten würde (was meiner nicht tut).

Zum MSI OLED selbst: MSI ist da ein wenig spät dran mit dem Release, balb kommen schon die OLEDs mit dem QD-OLED-Panel von Samsung der 2. Generation. Besser in allen Belangen und auch die Lesbarkeit ist durch eine andere Sub-Pixel-Anordnung verbessert worden.
 
Zuletzt bearbeitet:
Weil manche schreiben, dass jetzt der Nachfolger rauskommen wird: wie heißt denn das neue Modell?
 
Netter Monitor aber LG (direkt vom Hersteller kostet es natürlich viel weniger, ebenso wie bei Samsung) hat doch neulich welche gebracht, also OLED, die deutlich unter 1000€ kosten und sehr gut sind. Wenn dann das.

Übrigens, habe noch nie was von jemandem gehört der eine „4090 mit schlechtem Monitor“ kombiniert, hier fantasieren viele Leute zu viel sinnloses Zeug rumm. Wer eine 4090, oder andere teuere Grafikkarte, besitzt, kombiniert sie auch mit einem ordentlichen Monitor, noch nie was anderes gesehen. Weniger fantasieren, mehr bei den Fakten bleiben, hört sich aber eh nach Neid und Möchtegern-Seitenhieb an.
 
soweit ich weiss bringt msi bald 2 relativ interessante monitore in 32" einen für 899 und einen für "mehr" aber im grunde sind die geräte identisch bis auf das featureset ... die sind auch aktueller und waren auf der CES, da würd ich eher drauf warten.
 
Northstar2710 schrieb:
ich AFMF nutze möchte ich garnicht weniger hz. 120hz ist unterste grenze, 144hz is ok. 175hz währen 86fps limit das passt richtig gut.
Okay, das läuft bei mir eher entgegen gesetzt, zum arbeiten reichen mir 60 Hz ebenso für Strategie- und Rollenspiele o.ä. und 165 Hz sehe ich eher als sinnvolle Obergrenze (für Renn- und Shooterspiele) an, auch vor dem Hintergrund vom immer weiter steigenden Stromverbrauch bei wenig Mehrwert und sehr teurer Grafikkarten um in Spielen passend hohe Frameraten erreichen zu können (60 fps reichen übrigens schon für AFMF), die den Monitor ausreizen.

Darüber stehen Bildwiederholfrequenzen zumindest für mich in keiner gesunden Preis-Leistungsrelation und mit Blick auf Nachhaltigkeit ist das auch ziemlich fragwürdig.

Für Asbach-uralte Titel, die auch auf einer "Kartoffel" von Grafikkarte hohe fps bieten, lohnt es dann auch irgendwie nicht sich so einen teuren "hochherzigen" Monitor zu holen, es denn man ist Hochfrequenz-Gamer, der keinen Wert auf Grafik sondern maximale fps legt und da reichen dann auch irgendwelche relativ günstigen TN-Panelmonitore (OLED wäre da sprichwörtlich "Perlen vor die Säue").
 
naja über sinnhaftigkeit braucht man sich da nicht unterhalten. alles über 165hz is für casual und normal gamer ein overkill. die wenigsten sind wohl ambitionierte esport champions ^^ jetzt wo langsam oled geräte den markt erobern macht das ganze auch erst wirklich sinn.

was nutzen einem die 165hz wenn das panel bei den schaltzeiten einschläft, da krieg man höchsten motion sickness :)
 
warum denn nicht 4K. zum neuen hihgendrechner kommt ein 4K monitor. wenns so weitergeht den massenmarkt absichtlich nicht zu bedienen hole ich mir nochmal IPS. ich warte ohnehin auf LG WOLEDs. ihr könnt mir erzählen was ihr wollt WOLED ist weit überlegen außer dass ich mir eben alle 4 Jahre nen neuen kaufen musss wegen burn in. seis drum.
 
Mich würde hier auch die Garantie für das Panel interessieren.
Derzeit kann Alienware niemand das Wasser reichen bzgl. einbrennen etc.
 
Eigentlich genau das was ich suche!! Würde ich sofort kaufen, aber der Preis geht halt mal gar nicht! Schade :/ ich warte.

Entweder bis der günstiger ist, oder wenn dieses Jahr die neuen LG rauskommen. Glaube die werden richtig einen raushauen
 
Ich werde bei 16:9 bleiben .
Bin Gespannt auf die 32 Zoll Tests der neuen Geräte .
Am meisten freue ich mich auf den Bericht des PG32UCDM.
 
fromdadarkside schrieb:
Ich sehe den Mehrwert für den massiven Mehrpreis gegenüber z.B. eines Philips Evnia 34M2C8600 nicht. Da dürfte das gleiche Panel verbaut sein, die Anschlüsse sind nahezu identisch, RGB-Licht hat der auch satt... das Gehäuse ist vielleicht etwas "einfacher" gehalten, aber das wars. Oder übersehe ich was?

[..]

Ich arbeite zwei Tage pro Woche im Homeoffice und habe den Philips ganz bewusst dafür ausgesucht, weil ich (wie am getesteten MSI) meinen Firmenlaptop per USB-C anschließen kann, während der private PC über DP feuert. Dank KVM-Funktion muss ich kein einziges Kabel umstecken, wenn ich vom Laptop auf den PC oder zurück wechseln will. Gehört sich als Standard an JEDEN Monitor.

Achja, schwarze Schrift auf weißem Untergrund, wie hier auf CB im Editor, macht bei mir keinerlei Probleme. Aber die Wahrnehmung der bunten Schatten ist wohl ziemlich individuell...
genau mein Setup. Ich habe den Philips jetzt auch schon seit März 2023 hier und bin vollumfänglich zufrieden. Wenn man an den HDR Einstellungen noch etwas dreht sieht alles sehr gut aus! und das für aktuell €850,- :daumen:
 
  • Gefällt mir
Reaktionen: fromdadarkside
Ähnlich wie die letzten 34er 21:9 OLEDs alleine vom Spec-Sheet und den Tests durchaus interessant.
Preislich klar etwas teuer, aber da sowas normal X-XX Jahre hält sollte es min. eine eher zwei oder mehr Generationen GPUs überdauern.

Die Farb-Säume sind leider am Ende für mich als jemand der auch an seinem Monitor arbeitet nicht so nice und eine andere Sub-Pixel-Matrix wäre bei dem Preis für mich schon eher wünschenswert...
 
Zurück
Oben