Test LG OLED 48CX im Test: 48-Zoll-OLED-TV mit HDMI 2.1 & 120 Hz als Gaming-Monitor

lynx007 schrieb:
Da gibts halt dann wirklich zu schöne und gute Monitore.

Wie viele davon können 4K mit 120Hz und HDR?
1595329413988.png


Es gibt nicht einmal eine Handvoll Display mit ähnlichen Leistungsmerkmalen und alle liegen im vierstelligen Preisbereich.
 
  • Gefällt mir
Reaktionen: Siran
xexex schrieb:
Wer sich einen Monitor für 4K 120Hz kauft, wird den nicht mit einer Grafikkarte aus der Mittelklasse befeuern und eine 2080Ti kostet je nach Variante fast schon so viel wie das Display.



Der Grund ist vor allen Dingen, dass LG aktuell der einzige Hersteller solcher Displays größeren Formaten ist. Aktuell sind selbst ohne OLED kaum vergleichbare Displays zu bekommen und wenn, dann liegen sie teils preislich drüber.
https://geizhals.de/?cat=monlcd19wide&xf=11939_30~11963_120~14591_38402160

Naja ne 20xx egal welche reicht ja nicht, es muss ja mind eine Grafikkarte mit HDMI 2.1 sein sonst fällt zu viel an Features weg die der TV hat.

Von daher wird es wohl eine „gurkige“ 3080 auch tun 😁 Die man 3-4 Monate nach Marktstart sicher um einiges unter 1000euro bekommt. Auch der CX48 wird sich sicher auf der Straße nach unten korrigieren, wie weit hängt halt von der Nachfrage ab.

Muss am Ende ja jeder selbst entscheiden.

Klar LG ist einziger Hersteller Über tabletgrösse, aber jedem Monitorhersteller steht es frei diese Panels zu kaufen... macht aber keiner. Ob das jetzt nur an der Größe, an der Einbrennmöglichkeit oder noch was anderem liegt können wir ja nur raten. Auch hier ist es ja primär ein TV und kein Monitor.

Der Kontrast ist halt schon mega, besonders wenn man abends spielt ist das bei OLED schon ein Gamechanger für mich... nur daddel ich halt leider nicht mehr genug 😁 und bei Spielen mit HUD‘s wäre ich halt am Ende auch vorsichtig, wenn man da dann mal mehrere 100 oder gar 1000h spielen sollte.
 
xexex schrieb:
Wie viele davon können 4K mit 120Hz und HDR?
Anhang anzeigen 946527

Es gibt nicht einmal eine Handvoll Display mit ähnlichen Leistungsmerkmalen und alle liegen im vierstelligen Preisbereich.

Mit ähnlichen Preisbereich,

4 mit hdr 1000
https://www.computerbase.de/preisve...loc=de&plz=&dist=&filter=aktualisieren&sort=t

2 mit hdr 600
https://www.computerbase.de/preisve...&xf=11944_2160~11963_120~12077_DisplayHDR+600

9 mit hdr 10
https://www.computerbase.de/preisve...en&sort=t&xf=11944_2160~11963_120~12077_HDR10

Ist überaschaubar, aber es sind halt dann auch richtige Monitore wo sich auch nichts in 10 Jahren einbrennen kann. Aber muss jeder für sich selbst entscheiden.
Ergänzung ()

Toni_himbeere schrieb:
Der Kontrast ist halt schon mega, besonders wenn man abends spielt ist das bei OLED schon ein Gamechanger für mich... nur daddel ich halt leider nicht mehr genug 😁 und bei Spielen mit HUD‘s wäre ich halt am Ende auch vorsichtig, wenn man da dann mal mehrere 100 oder gar 1000h spielen sollte.

Das Risiko mit dem einbrennen hat man halt bei VA nicht.

Da könnte ich niemals entspannt arbeitden oder zocken... Und dauernd das Gerät am strom lassen mit der Angst auf "Flecken" nach ablauf der Garantiezeit.... wobei letztes vermutlich nicht mal von der Garantie abgedeckt ist.

Auch wen die Schwarzweite ein Traum sind, Kontrast bekommt man sogar bei VA sogar mitlerweile mehr wen ich mich nicht täusche. Nicht ihne grund steht vermutlich keine Angabe bei LG.
https://www.computerbase.de/preisve...f=11944_2160~11947_2500~11963_120~12077_HDR10
 
Zuletzt bearbeitet:
Den Kontrast kann man nicht sinnvoll messen, da er unendlich ist, wenn kein Licht emittiert wird. Das Video zeigt einen OLED von 2016, das sind 5 Modellgenerationen und 3 große Panelgenerationen her. Der Typ von dem der Fernseher stammt hat mehr als 8h am Tag den gleichen Sender mit LOGO geguckt, natürlich auf voller Helligkeit. Realistischer Fall? Wohl kaum. Die neuen sind lange nicht mehr so anfällig zum Einbrennen.
 
  • Gefällt mir
Reaktionen: onetwoxx, cvzone, Narbennarr und eine weitere Person
Es werden immer die Videos gesucht die entweder sehr alt sind und/oder der eigenen Meinung entsprechen. Videos die das Gegenteil zeigen bzw. zeigen wie lange es dauert bis so etwas auftritt (z. B. Rtings) werden eher selten aufgelistet. Man muss da schon auch gleich gewichten.

Ich hab den 55C9 seit November und betreibe nur den PC daran. Sogar im Home office über 8-10 Stunden lang. Bei mir zeigen sich keinerlei Artefakte. Da war mein Plasma aus 2008 schlimm. Aber die ohne Oled wissen es ja meist besser. ;)

Oben aufgelistete Monitore schön und gut aber auf die Panellotterie in dem Preisbereich geht keiner ein. Damit muss man sich dann von Anfang an rum schlagen. (s. Anhang)
 

Anhänge

  • Bleed.jpg
    Bleed.jpg
    1,7 MB · Aufrufe: 299
lynx007 schrieb:
Mit ähnlichen Preisbereich,

4 mit hdr 1000
https://www.computerbase.de/preisve...loc=de&plz=&dist=&filter=aktualisieren&sort=t

2 mit hdr 600
https://www.computerbase.de/preisve...&xf=11944_2160~11963_120~12077_DisplayHDR+600

9 mit hdr 10
https://www.computerbase.de/preisve...en&sort=t&xf=11944_2160~11963_120~12077_HDR10

Ist überaschaubar, aber es sind halt dann auch richtige Monitore wo sich auch nichts in 10 Jahren einbrennen kann. Aber muss jeder für sich selbst entscheiden.
Ergänzung ()



Das Risiko mit dem einbrennen hat man halt bei VA nicht.

Da könnte ich niemals entspannt arbeitden oder zocken... Und dauernd das Gerät am strom lassen mit der Angst auf "Flecken" nach ablauf der Garantiezeit.... wobei letztes vermutlich nicht mal von der Garantie abgedeckt ist.

Auch wen die Schwarzweite ein Traum sind, Kontrast bekommt man sogar bei VA sogar mitlerweile mehr wen ich mich nicht täusche. Nicht ihne grund steht vermutlich keine Angabe bei LG.
https://www.computerbase.de/preisve...f=11944_2160~11947_2500~11963_120~12077_HDR10

Zum arbeiten gebe ich dir recht, da wäre mir das auch zu heikel, wenn’s ums spielen geht, kommt es auf die Spiele an. Wenn man sich spiele gönnt die maximal 50-100h dauern dann sehe ich kein Problem bei OLED. Ich kenn Leute mit normalen nutzungsverhalten wo OLED TV nach mehreren Jahren keine Probleme haben.

ich hab bei nem Freund verschiedene Spiele auf einen C9 gespielt, das ist anders als ein teurer Monitor, besser... es wirkt viel ... plastischer... ich kann es garnicht genau beschreiben. Es kommt schon auch drauf an ob das Spiel allgemein sehr dunkel ist, aber wenn, dann ist es mit OLED Display sichtbar besser und das um mehrere Stufen. FIFA dagegen hat mir jetzt nicht sichtbar besser gefallen.


Als TV würde ich mir nur noch einen OLED holen(weil es halt zu mir passt)pder einen Beamer.

wie gesagt wenn sich wer nen2ten Bildschirm fürs daddeln holen wollte, kann ich gut verstehen das es dieser oder ggfs der 55/65“ OLED ist.

Klar ich bin dann raus, aber jeder jeck ist anders.

und da die Displays als TV gut funktionieren denke ich das sie auch mit verschiedenen Spielen gut klar kommen.

Einbrennen bei Masken und statischen Kontent kann ich mir vorstellen, bei vielen Bewegtbildern? Glaub ich weniger
 
Als Alternative sehe ich höchstens den Philips Momentum 55".

lynx007 ist halt sehr in seiner Meinung gefestigt und sieht halt nicht die Standpunkte der anderen an. OLED brennt per se NICHT ein. JA es hat technologisch bedingt Nachteile, die haben aber auch LCD, LED-LCD und Plasma TV/Monitore. Btw. nach so vielen Beiträge, BITTE Bitte achte mehr auf deine Rechtschreibung, es heißt WENN und nicht wen. Es wird echt schwer die Texte richtig zu lesen.


Toni_himbeere schrieb:
Als TV würde ich mir nur noch einen OLED holen(weil es halt zu mir passt)pder einen Beamer.
Wenn man die "besten"/"echten" Farben haben will. Kann das vollkommen verstehen. Wenn der Fokus z.B. beim arbeiten bei Datenbanken und Office liegt, würde ich klar vom LG abraten. Aber warum würde sich dann jemand einen 49" OLED kaufen? Deshalb in dem angebotenen Zielbereich passt der Monitor perfekt. Und nochmal lynx 32:9 wie beim G9 sind KEINE 16:9. Die beiden Monitore KANN man so nicht vergleichen. Ein Vergleich wäre höchstens mit dem Philips möglich.
 
Vielleicht kann einer helfen, erklären. Nutze den TV/Monitor seit einigen Tagen parallel an 2 Rechnern. Einmal mit beschreibenden Adapter und Club 2. 1 HDMI Kabel (2080TI), den anderen direkt über HDMI 2.1 Kabel über den HDMI 2 Anschluss einer 1080TI. Etwas ausgeprägter bei 120Hz, aber eindeutig auch bei 60Hz über Adapter ausgeblichen wirkende Farben verstärkt wenn in Windows HDR aktiviert. TV Einstellung bewusst identisch. Erklärung? In Games z.B. Fortnite ebenso, nicht nur in den üblichen Desktop Anwendungen. So nicht akzeptabel, bloß liegt es am Adapter , TV oder irgendwie beides.
 
Der HDR Modus von Windows versucht eine Art Upsampling von SDR auf HDR. Das kann der TV aber alleine deutlich besser also macht die Option keinen Sinn. Bei Spielen mit HDR Unterstützung (z.B. die letzten beiden Assassin's Creed, Forza H4 oder SotTR) dagegen ist das Bild top, teilweise muss man aber HDR in Windows eingeschaltet haben damit es im Spiel zu Auswahl steht.
-> Im Normalbetrieb den Windows HDR Schalter auslassen. Nur wenn im Spiel mit HDR Support die Option ausgegraut ist testweise mal in Windows umstellen ob es dann geht.

Zusätzlich solltest du schauen dass der Farbraum am TV passt. Meiner (Philips) hat da nie Probleme mit, aber laut Artikel(da steht auch was man umstellen soll) scheint LG da manchmal zu haken.
 
Und wie sieht es aus mit der 9er Serie von LG? Die haben ja auch HDMI 2.1 und sogar mehr Bandbreite.

Ich betreibe einen normalen LG GSync Monitor für den Schreibtischbetrieb und habe zum zocken einen LG C9 55", sobald Gaming Sessions losgehen switche ich den Desktop einfach um und fertig. Burn in ist kein Thema da ich den TV ja nicht im Alltag als Monitor nutze. Spiele dann alles in 1440p Auflösung und 120Hz, es ist ein Traum optisch und Gaming und OLED sind für mich DIE Kombination wenn man das beste Bild haben möchte. Natürlich würde ich gerne 4k/120 erleben, wäre aber nur bei einer kleinen handvoll Games möglich die etwas älter sind. Ghost Recon, Division 2 etc, all diese neuen Games, da schafft die 2080Ti auch in 1440p nicht volle 120fps bei vollen Details, jedenfalls nicht durchgehend und wenn dann bei dieser Adapterlösung kein GSync funktioniert dann bedeutet es dass man nur Spiele damit genießen kann bei denen die GPU es schafft sie auf 120fps zu locken, sonst hat man halt tearing und was sonst noch alles.
 
Zuletzt bearbeitet:
Ich kann das gute Stück jetzt seit einigen Tagen mein Eigen nennen und bin überwältigt. Ich hatte in den letzten Jahren bestimmt 6 oder 7 verschiedene Monitore, ob 32:9, 21:9, 43" 4k, 28" 4k... alles schon da gehabt, aber jetzt hab ich ihn gefunden 😄
OLED fand ich ja fürs Wohnzimmer schon geil, aber endlich kann man das am PC haben. Das in Verbindung mit G-Sync und 120 Hz... eigentlich wollte ich mal ne Graka Generation überspringen, aber da bleibt mir wohl nichts anderes übrig 🤪

Nur eins versteh ich nicht so ganz... was ist "besser"?? RGB Voll oder YCbCr 4:4:4
Egal was ich darüber im Netz lese, jeder sagt irgendwas anderes und da werden mit begriffen um sich geworfen...
Kann es sein das es dabei nur im die Quelle geht?
Wenn Film XY jetzt mit YCbCr 4:2:2 gedreht wurde, dann sollte ich optimalerweise den Film auch mit diesem Farbraum ansehen, damit ich das Ergebnis habe, wie sichs die Filmemacher vorgestellt haben?

Kann man sagen das eines davon mehr Farben darstellen kann oder gehts dabei einfach nur um andere Farbräume, die einfach etwas anders aussehen?

Bin für jedwede Hilfe dankbar.
 
Cyrix187 schrieb:
RGB Voll oder YCbCr 4:4:4

Das nennt sich Farbmodell und bestimmt wie Farbe und Helligkeit übertragen wird.
Das hat gar nichts mit dem Farbraum selber zu tun sondern wird zur Bandbreitenreduzierung mittels Farbunterabtastung verwendet.
RGB kommt aus dem PC Bereich und ist üblicherweise ohne Kompromisse also immer volles Chroma 4:4:4 während YCBCr aus dem TV Bereich kommt und in der Regel mit Farbunterabtastung verwendet wird. Bei Video Inhalten liegt quasi immer 4:2:0 an.
Du wählst einfach das beste aus das dein Display verträgt ob RGB Voll oder YCbCr 4:4:4 ist eine Frage der Kompatibilität.
TVs können meist nur 4:2:0 oder wenn ein entsprechende Einstellung vorgenommen wird (PC Mode, etc.) auch 4:4:4 allerdings muss man auf die Bandbreite achten mit 10bit Farben was für HDR benötigt wird geht mit HDMI 2.0 nur max. 4:2:2.
 
  • Gefällt mir
Reaktionen: th3o und Axcis
Nach genau so einer Antwort habe ich gesucht. Vielen vielen Dank, das leuchtet mir jetzt alles ein.

Ich habe auch gemerkt, dass ich durch diese Unterabtastung auch über HDMI only 120 Hz nutzen kann. Läuft dann zwar mit 4:2:0 und die Farben sehen etwas anders aus, dafür funktioniert aber auch G-Sync. Grad in Overwatch Deathmatch gespielt und mit 60 Hz fast letzter gewesen, kurz umgeschalten auf 120 Hz und zack noch 2ter geworden.
Nur unter Windows hab ich ab und an Verzerrer drin hier im Browser. Zur Not muss ich den Club3D Adapter nutzen, aber der spackt auch immer wieder rum und das Bild ist dann weg. Aber zum Glück stand die Abhilfe ja hier im Artikel. Kurz den HDMI Stecker ziehen und das Bild kommt wieder.

Denk für nicht HDR Spiele ein guter Kompromiss bis Ende des Jahres, jetzt muss ich mir mal Star Wars Battlefront 2 anschauen... aber ich schätz das wird mit HDR einfach so viel besser aussehen.
 
Cyrix187 schrieb:
Nur unter Windows hab ich ab und an Verzerrer drin hier im Browser
Du meinst mit "Verzerrer" wohl Chroma-Subsampling-Artefakte? Für den Desktop und andere schriftlastige Fälle ist auf jeden Fall volles 4:4:4 Chroma zu empfehlen, bei Spielen geht auch 4:2:0 gut solange du kein sehr textlastiges Spiel hast.
Das Problem hat man eben mit HDMI 2.0, 2.1 sowie Displayport seit 1.3 hat diese Probleme weniger weil viel mehr Bandbreite vorhanden ist.
Cyrix187 schrieb:
Denk für nicht HDR Spiele ein guter Kompromiss bis Ende des Jahres, jetzt muss ich mir mal Star Wars Battlefront 2 anschauen... aber ich schätz das wird mit HDR einfach so viel besser aussehen.
Das mit Abstand beste HDR Spiel dass mir auf dem PC bisher unter die Augen gekommen ist war Forza Horizon 4.
Falls du den Gamepass hast kannst es ja ausprobieren, ist übrigens vorbildlich optimiert, mit einer 2070 OC kann man 4K60fps mit max. Details laufen lassen.
 
  • Gefällt mir
Reaktionen: Axcis
Daniel# schrieb:
Du meinst mit "Verzerrer" wohl Chroma-Subsampling-Artefakte?

Das mit Abstand beste HDR Spiel dass mir auf dem PC bisher unter die Augen gekommen ist war Forza Horizon 4.
Falls du den Gamepass hast kannst es ja ausprobieren, ist übrigens vorbildlich optimiert, mit einer 2070 OC kann man 4K60fps mit max. Details laufen lassen.

Ich nehms mal an... das Bild zieht, obwohl sich nichts bewegt, an manchen Stellen zur Seite. Aber ist nur mit 120Hz und mit 4:2:0.

Danke für den Tipp, ich seh grad das ich einen Monat für 1€ nehmen kann. Das heißt ich lads gleich mal runter 😄

Brauch 4:4:4 ne höhere Bandbreite als RGB voll oder ist das das selbe Level? Weil der TV ja nur beschnittene HDMI 2.1 Kanäle hat. Davon abgesehen das ich selbst wohl nur 1 Game kenn, das 10 Bit unterstützt (Mortal Kombat 11 - Dort kann man es im Grafikmenü auswählen), wär halt schon schön, wenn ich 120Hz + Gsync + 4k + RGB voll + 10 Bit einstellen könnte via HDMI 2.1.
Ich hatte auch den Phillips Momentum 43" 4k HDR Monitor. Der hatte n Displayport Anschluss und da wars kein Problem 4k mit 10 Bit mit 60 Hz laufen zu lassen.
 
Cyrix187 schrieb:
wär halt schon schön, wenn ich 120Hz + Gsync + 4k + RGB voll + 10 Bit einstellen könnte via HDMI

Das geht erst ab HDMI2.1, was dein Display kann, aber die Grafikkarte nicht.
 
  • Gefällt mir
Reaktionen: th3o
Cyrix187 schrieb:
Ich nehms mal an... das Bild zieht, obwohl sich nichts bewegt, an manchen Stellen zur Seite. Aber ist nur mit 120Hz und mit 4:2:0.
Das ist wohl ein Bug des TVs mit 120hz, Chroma-Subsampling sieht so aus:
https://en.wikipedia.org/wiki/Chroma_subsampling#/media/File:Colorcomp.jpg
Bei Google gibts reichlich Beispiele.
Cyrix187 schrieb:
Davon abgesehen das ich selbst wohl nur 1 Game kenn, das 10 Bit unterstützt
Spiele "unterstützen" keine 10bit Farben. Was dein System ausgibt ist Einstellungssache. Du kannst auch HDR mit 8bit Farbtiefe einstellen, sieht eben schlechter aus.
Sofern du HDR Inhalte hast ist es immer empfehlenswert 10bit Farbtiefe zu haben denn dafür ist der Farbraum und der Dynamikumfang ausgelegt.
 
Ist es nicht irgendwie paradox, dass man eine Farbunterabtastung verwenden muss, also effektiv die Auflösung der Bilder die den Farbwert angeben reduziert, um einen erweiterten Farbraum nutzen zu können?
Sind 10 Bit mit 4:2:2 oder gar 4:2:0 dann wirklich noch besser als 8 Bit mit 4:4:4?
Und warum kann man keine 10 Bit RGB Übertragung einstellen? Scheinbar nicht mal mit reduzierter Auflösung.
 
Marcel55 schrieb:
Sind 10 Bit mit 4:2:2 oder gar 4:2:0 dann wirklich noch besser als 8 Bit mit 4:4:4?
Und warum kann man keine 10 Bit RGB Übertragung einstellen? Scheinbar nicht mal mit reduzierter Auflösung.
Mir scheint du beschäftigst dich wenig mit Farbunterabtastung und das warum und weshalb.
Ein erweiterter Farbraum hilft auch bei 4:2:0, alle Video Inhalte die es gibt liegen in 4:2:0 vor.
Das wird gemacht weil das menschliche Auge Helligkeit sehr viel besser auflösen kann als Farbe, deswegen gibt es bei einem farbigen Bild auch so wenig sichtbare Unterschiede zwischen 4:2:0 und 4:4:4.
Wo man Unterschiede erkennt ist bei feinen Strukturen wie Icons oder besonders Schrift die üblicherweise schwarz auf weiß vorliegt und harte Kontraste hat.

Warum und weshalb eine bestimmte Kombination von Auflösung, Hz, Chroma und Farbtiefe nicht geht da musst du die Hersteller der Quellgeräte (auf dem PC wohl AMD und Nvidia) sowie die TV-Hersteller fragen.

EDIT:
Mit einer RTX 2070 und einem Philips 326M über Displayport 1.4 geht 4K60Hz RGB 10bit problemlos.
Aber Displayport ist generell weniger empfindlich als HDMI. Probleme kommen meist erst mit HDMI da es aus der Unterhaltungselektronik kommt und Quellgeräte sowie TVs generell oft rumzicken.
 
Zuletzt bearbeitet:
Zurück
Oben