News UHD-Monitore von LG: 27UK850-W und 27UK650-W mit IPS, HDR10 und FreeSync

Herdware schrieb:
Viele TVs gehen schon ziemlich intelligent mit dieser Problematik um und kappen nicht einfach nur brutal Details in Bildbereichen, die z.B. zu hell für das Display sind (clipping), sondern passen die Helligkeitswerte des Gesamtbildes per Tone Mapping dynamisch an, um möglichst viele Details zu erhalten.

In der Praxis hast aber häufig immer noch HDR Abstimmungsprobleme. Sonst bräuchte man HDR10+ nicht einführen:

https://youtu.be/YPiv2sVxH3o


Denn jede zusätzlich Analyse des Signal sorgt halt auch für mehr Input Lag. Habe ha neben den HDR Monitor auch einen LG 2017 OLED. Auch da braucht man eher Activ HDR damut die Bildhelligkeit stimmt wenn man nicht gerade Dolby Vision anliegt.

Normales HDR10 hat immer irgendwo leichte Nachteile.

@Smartin

Klar ist es nicht so scharf wie nativ. Aber immer noch höher um mehr Details als bei Full HD oder WQHD zu erkennen.
Ein leichter Kompromiss um trotzdem eine stabile Performance zu bekommen.

Wer natürluch in 144Hz zocken will wird halt vorwiegend vei 1440p bleiben bis die ersten UHD da bezahlbar werden.
 
KuroSamurai117 schrieb:
In der Praxis hast aber häufig immer noch HDR Abstimmungsprobleme. Sonst bräuchte man HDR10+ nicht einführen:

https://youtu.be/YPiv2sVxH3o


Denn jede zusätzlich Analyse des Signal sorgt halt auch für mehr Input Lag. Habe ha neben den HDR Monitor auch einen LG 2017 OLED. Auch da braucht man eher Activ HDR damut die Bildhelligkeit stimmt wenn man nicht gerade Dolby Vision anliegt.

Normales HDR10 hat immer irgendwo leichte Nachteile.

Auch HDR10+ kommt nicht an Dolby Vision heran.
HDR10+ Content ist HDR10 Content bei dem im Vorfeld per Algorithmus ähnlich wie bei LGs activ HDR10 Metadaten nach dem eigentlichen Mastering generiert werden.
Der Imput Lag ist der Hauptunterschied zwischen HDR10 mit activ remastering von LG und HDR10+.
 
Warum bringen die eigentlich aktuell überhaupt noch HDR10-Monitore raus, statt HDR10+ zu unterstützen?
Das ergibt doch überhaupt keinen Sinn.

Achso, ne Moment ... man will den Kunden in einem Jahr ja am besten den selben Monitor/Fernseher noch mal verkaufen. :rolleyes:
Dann ist das natürlich nen toller Trick.
 
Pizza-König schrieb:
Warum bringen die eigentlich aktuell überhaupt noch HDR10-Monitore raus, statt HDR10+ zu unterstützen?
Das ergibt doch überhaupt keinen Sinn.

HDR10 ist der kleinste gemeinsame Nenner. Damit kann jedes HDR-Gerät umgehen und ist z.B auch auf jeder UHD-BR-Disc vorhanden.

Was HDR10+ und Dolby Vision angeht, muss erst noch der Format-Krieg ausgefochten werden, damit wir wissen, was sich durchsetzt, oder ob beide bleiben.

Wenn man LG und ich glaube auch Sony glaubt, braucht eh niemand HDR10+, weil das nur nachträglich per Algorithmus ausgewertete, statische Metadaten sind. Solche Features beherrschen z.B. LGs HDR-TVs schon länger auf eigene Faust.

Auf der anderen Seite scheint Dolby Vision auch keine so unproblematische Sache zu sein. Wie ein kürzlich verbreitetes Firmware-Upgrade für Sonys TVs gezeigt hat, das überraschenderweise nur mit internen Quellen funktionierte (Streaming-Apps, statt HDMI oder USB) gibt es da wohl diverse "Unterformate", so dass Dolby Vision nicht gleich Dolby Vision ist.

In ein paar Jahren werden wir hoffentlich schlauer sein und wissen, welches dynamische HDR-Format das Rennen gemacht hat. Bis dahin ist man halt mit HDR10 auf jeden Fall auf der sicheren Seite.
 
Atent123 schrieb:
Auch HDR10+ kommt nicht an Dolby Vision heran.

Korrekt. Wird ja auch im Video gezeigt dass HDR10+ nicht ideal ist und es noch leichte Probleme hat.
Besten wäre halt Dolby Vision im Gamingbereich wird sich aber halt nicht durchsetzen.

Trotz 2 HDR Bildschirme nutze ich wohl nur 20% vom HDR wo es sich wirklich gut abstimmen lässt.
 
Herdware schrieb:
HDR10 ist der kleinste gemeinsame Nenner. Damit kann jedes HDR-Gerät umgehen und ist z.B auch auf jeder UHD-BR-Disc vorhanden.
Ja, aber im Prinzip war es von Anfang an ein unkomplettes Format, welches jetzt auch schon wieder überholt ist.

Herdware schrieb:
Was HDR10+ und Dolby Vision angeht, muss erst noch der Format-Krieg ausgefochten werden, damit wir wissen, was sich durchsetzt, oder ob beide bleiben.
Das kotzt mich sowieso schon wieder an.
Wieso konnten die sich nicht alle zusammen auf ein Format einigen?
Und wie bescheuert ist es überhaupt, daß man für sowas banales noch Lizenzgebühren verlangt?

Macht derzeit echt überhaupt keinen Bock, sich einen neuen Monitor kaufen zu wollen. -.-
 
Doch?
Der Samsung ist kein 4K (bzw. UHD) Monitor. Da fehlt immerhin die Hälfte der Pixel – nur etwas mehr als 4 Millionen.
 
Wo ist denn der Unterschied, außer hdr, zum 2 Jahre älteren ud88? Den gibt es in den Kleinanzeigen für um 300€...
 
Ich bin mit dem 650-W und einer 2080 sehr zufrieden. Solange dich eine etwas unausgewogene Beleuchtung nicht stört - fällt nur bei ganz Schwarz auf und macht mir nichts aus. Müsste G-Sync kompatibel sein, hab's noch nicht getestet. Taucht aber in einer Liste von heute als funktionierend auf.
 
Ragemoody schrieb:

Danke. Bis auf HDR sehe ich da eigentlich keinen Unterschied. Bild Qualität ansich lässt sich aber hier oft auch nicht erfassen.

Langsuan schrieb:
Ich bin mit dem 650-W und einer 2080 sehr zufrieden. Solange dich eine etwas unausgewogene Beleuchtung nicht stört - fällt nur bei ganz Schwarz auf und macht mir nichts aus. Müsste G-Sync kompatibel sein, hab's noch nicht getestet. Taucht aber in einer Liste von heute als funktionierend auf.
Zockst du zufällig bf5?

Kämpfe noch mit mir ob ich den Umstieg von 144 auf 60 Fps verkrafte ^^
 
Zuletzt bearbeitet:
Hat beides seine Vorteile, ich persönlich finde die 4K, 60Hz besser als WQHD, 144Hz - aber das ist eine Glaubensfrage. Am besten mal ausprobieren.
 
@Langsuan ja das könnte ich mir für mich auch vorstellen...

Gibt es aber denn Möglichkeiten der Skalierung in spielen die viel Leistung erfordern?
 
Du meinst die Möglichkeit auf einem UHD Monitor Spiele in WQHD oder FHD anzeigen zu lassen und dadurch mehr FPS zu bekommen - das geht mit unterschiedlichen Ergebnissen. Kommt auf den Monitor drauf an, ich hab's noch nicht ausprobiert, weil ich bisher fast immer 60 FPS habe. Und mehr gibt mein Monitor nicht her.

Es gibt einen Rog Strix und einen Acer Monitor, die UHD 120-144Hz darstellen können, aber mit eingeschaltetem G-/Freesync auch nur 60Hz. Kosten jeweils über 2.000 Euro.

Daher ist für mich aktuell der beste Kompromiss UHD, 60Hz, G-Sync durch Adaptive Sync. Höchste Auflösung und very smooth auch in Shootern.
Ergänzung ()

Hier noch eine Ergänzung: mit dem Tool CRU kann man die 40-60Hz AS Range auf 34-60Hz erweitern.
 
Zuletzt bearbeitet:
@Langsuan ja genau. Wobei ich mich gedanklich schon auf den LG ud88 oder den uk850 eingeschossen habe. Beide nur mit freesync bis 60 herz, wobei Nvidia die jetzt ja halb offiziell auch unterstützen soll.

Mit runter gesetzten settings würde ich in bf5 hoffentlich die 60 Fps halten können. Vsync also an. Ist die Frage ob ich dann überhaupt freesync benötige.
 
Der UK850W ist glaube ich das gleiche Panel wie der UK650W nur mit Lautsprechern oder so ähnlich.

Vsync kostet FPS, G-Sync/ASync/Freesync glaube ich nicht <-- stimmt das??
Ergänzung ()

Der 27UD68 geht wohl laut einer der Online-Kompatibilitätslisten - über den 88 habe ich keinen Eintrag gefunden. Die Listen sind teils ziemlich unübersichtlich geworden.
 
Zuletzt bearbeitet:
Also ohne VESA kannste den UD88 voll knicken das ist ein Wackeldackel hoch 10.

Dann eher den 850er oder den 69er..
 
Langsuan schrieb:
Der UK850W ist glaube ich das gleiche Panel wie der UK650W nur mit Lautsprechern oder so ähnlich.

Vsync kostet FPS, G-Sync/ASync/Freesync glaube ich nicht <-- stimmt das??
Ergänzung ()

Der 27UD68 geht wohl laut einer der Online-Kompatibilitätslisten - über den 88 habe ich keinen Eintrag gefunden. Die Listen sind teils ziemlich unübersichtlich geworden.
Der uk850 hat den großen Vorteil von usb-C. Sonst würde der 650er sich reichen.

FPS kostet nichts. Vsync limitiert sie nur auf die herzzahl des Displays. Also 60 in dem Fall .

Blood011 schrieb:
Also ohne VESA kannste den UD88 voll knicken das ist ein Wackeldackel hoch 10.

Dann eher den 850er oder den 69er..

Soll kein Kriterium sein, da der neue Monitor höchstwahrscheinlich an die Wand kommt (versa 100)
 
  • Gefällt mir
Reaktionen: Langsuan
Zurück
Oben