News UHD-Monitore von LG: 27UK850-W und 27UK650-W mit IPS, HDR10 und FreeSync

@Shoryuken94: au contraire! Den Unterschied sieht man sehr deutlich. Dazu gab es auch mal gute Bilder in der PCGH letztes Jahr bei dem Witcher 3 in verschiedenen Auflösungen gezeigt wurde. Bei 4K sah man nochmal einen sehr deutlichen Sprung gegenüber 1440p auf 27". Insbesondere werden da auch erst die Linien ohne Kantenglättung einigermaßen erträglich. Ich will da nicht mehr zurück und zum Glück skalieren ja mittlerweile alle neueren Spiele ihre GUI.

Ich warte auch sehnsüchtig auf entweder den Asus 4K mit 144 Hz oder - wenn LG schneller ist - auf den 34" Ultrawide mit 5K.
 
Wattwanderer schrieb:
Taugen die eingebauten Lautsprecher bei LG Displays etwas?

Muss nicht HiFi sein sondern soll nicht schon bei Windows Systemklängen scheppern. Aktuell habe ich ein 30 EUR Lautsprechersystem und bin damit zufrieden bis auf den Kabelsalat, Stecknetzteil und die Lautsprecher selbst die auf dem Schreibtisch Platz beanspruchen.
...

Kann mich nicht beschweren über meinen, nebenbei Musik dudeln lassen, unaufgeregte Videos schauen... alles kein Problem.
Es sollte klar sein das man damit kein Rockkonzert oder die Soundanlage im Kino kontern kann, aber für das alltägliche Nebenher mehr als gut geeignet.
 
Sind halt die Nachfolger von den schon bekannten 27MU67 und 27UD68.

Letzterer ist bei mir neben dem 32UD99 immer noch im Einsatz. In Sachen Glow und BLB einer der wenigen Monitore mit IPS die da kaum betroffen sind. Ich habe schon einige von Samsung, Benq, Acer und Asus durch.

Sind halt wie beschrieben Allround-Monitore die für das normale Zocken locker reichen. Bei Prad haben sie auch immer gut abgeschnitten.

Wer da einen Hardcore Gamer-Monitor erwartet ist in der falschen Produktkategorie. Dafür hat LG wiederum eigenen Gaming Monitore mit 144Hz.

Ich bin zufrieden auch wenn die Preise sicherlich hier und da günstiger sein könnten. Aber die Monitore sind oft auch mal im Angebot oder günstig aus z.B. Amazon Frankreich zu bekommen.
 
wenn doch schon HDR10 support gegeben ist, hätte man doch auch gleich auf freesync 2 setzen können?

so einen monitor habe ich letztes jahr schon gesucht, nun kommt er. da ich meinen LG 27UD88W für "günstige" 489€ (derzeit bei amazon für 615€) am black friday gekauft habe, hoffe ich doch - bzw. so mein gedanke, ihn für 500€ wieder verkaufen zu können und auf das nachfolgermodel mit HDR zu wechseln.

ich möchte auch nicht mehr weg von 4K. mein alter 1920x1200 monitor ist jetzt an meinem 2. PC und ist echt kein vergnügen mehr. der desktop wirkt pixelig und jegliche schrift nur noch ausgefranst. vom gaming brauch man erst gar nicht anfangen, da liegen welten zwischen den beiden monitoren in der bildqualität. fehlt nur noch HDR, dann brauch ich mir die nächsten jahre keine gedanken mehr machen.
 
Bin sehr froh, dass ich meinen Nixeus 27 EDG mit 1440p 144 Hz (30-144Hz Range für Freesync) + IPS für 487€ auf Amazon bekommen habe. Wird in den USA hergestellt und es hat gut ein Jahr gedauert, bis sie auf Amazon Germany 20 Exemplare angeboten haben. Bin jetzt für die nächsten 5-10 Jahre mehr als zufrieden...erst wenn 4k von unteren mittelklasse GPUs bedient werden kann schiele ich in die Richtung. Jetzt brauche ich erstmal nen Rechner der diesen Monitor den ich habe befeuern kann...naja muss ich eben noch warten bis 2019...LoL, Warframe, Fallout 2 mit Restoration Mod sehen allesamt aber schonmal atemberaubend auf dem Teil aus...bin sehr froh!

Amazon Link: https://www.amazon.de/gp/product/B071G6PGP7/ref=oh_aui_detailpage_o02_s00?ie=UTF8&psc=1
 
tja die 60 hz geschichte

Dauert echt lang bis 144 Hz bei 4K erschwinglich sind grad in Symbiose mit HDR10 wo Ich bei 750 die Grenze ziehen würd persönlich unabhängig der Synch Technik
 
nickless_86 schrieb:
An alle die wegen 60Hz motzen.... das betrifft ja praktisch alle 4K Monitore.

Ja, ich möchte mal eine GK sehen die 144Hz bzw. über 140f/s in 4K schafft ...lol
Aber Hauptsache Ansprüche stellen.

Für Far Cry 5 braucht es für über 60 Frames in 4K ein GK Gespann aus mind. 2 Highend(1080Ti) Karten!

HDR darf natürlich nicht fehlen, nur welches? Wer jetzt kauft kauft womöglich umsonst, weil noch keine Sau weiß welcher Standard sich durchsetzten wird.

Für Gutes HDR braucht es mind. 1000Nits, besser wären 3000 bis 10.000 und 12 bis 14Bit Panels. Ich lach dann mal wenn die Leute jetzt deswegen auf Neue Monitore mit 350-450Nits, Hauptsache sie haben HDR(8Bit), warten...
 
Zuletzt bearbeitet:
michel_men schrieb:
Ja, ich möchte mal eine GK sehen die 144Hz bzw. über 140f/s in 4K schafft ...lol
Aber Hauptsache Ansprüche stellen.
Hauptsache nicht über den Tellerrand schauen... Horizont einer knieenden Ameise.

Schön, dass du wenigstens selbst das Gegenbeispiel bringst: In LoL schafft wahrscheinlich eine GTX1050 die 144 Fps.
 
michel_men schrieb:
Ja, ich möchte mal eine GK sehen die 144Hz bzw. über 140f/s in 4K schafft ...lol
Aber Hauptsache Ansprüche stellen.
Immer wieder das Selbe.
Nicht jeder spielt AAA Titel mit top Grafik. Wenn doch, schafft man es in diesem Spiel halt nur auf 40-60fps. Zudem möchte ich beim Monitor Kauf darauf achten dass ich auch in 5 Jahren noch zufrieden bin so wie beim jetzigen der bestimmt schon 8 jährig ist. 144hz für Gaming, 4k gerne auch für office, Filme, Fotos. Desshalb warte ich auf 4k 144hz und keinen WQHD.
 
BlackWidowmaker schrieb:
Beides weit weg von dem was diese Monitore zu leisten vermögen. Reine Marketing-Augenwischerei, nur möglich weil der Begriff HDR nicht geschützt ist.

LG sagt ja nur, dass die Monitore "kompatibel zum HDR10-Standard" sind. Das bedeutet in diesem Fall, dass sie die HDR10-Metadaten verstehen können und ein entsprechendes Tone Mapping leisten. Dass das Display an sich dann nicht annähernd die Anforderungen erfüllt, um die HDR-Inhalte auch wirklich mit voller Bildqualität darzustellen, ist halt ein anderes Thema.

HDR-Tauglichkeit ist leider keine klare Grenze, sondern eine breite Grauzone. (Diese LG-Monitore bewegen sich offensichtlich im sehr dunkelgrauen Bereich. ;) )

Auch im TV-Bereich gibt es noch nichts zu kaufen, was HDR wirklich komplett umsetzen könnte. Dazu bräuchte es z.B. unter anderem eine Helligkeit von bis zu 10000 nits. Ich glaube auf der CES wurde gerade ein Prototyp eines Displays vorgestellt, das das leisten können soll, aber es kann noch viele Jahre dauern, bis es sowas für Consumer zu kaufen gibt.

Wobei sich da dann schon wieder die Frage der Sinnhaftigkeit stellt. Ist ja nicht unbedingt nur ein Vorteil, wenn man z.B. bei einer Wüstenszene in einem Spielfilm als Zuschauer tatsächlich eine Sonnenbrille aufsetzen muss, um nicht brutal geblendet zu werden. :lol:
 
michel_men schrieb:
Ja, ich möchte mal eine GK sehen die 144Hz bzw. über 140f/s in 4K schafft ...lol
Aber Hauptsache Ansprüche stellen.
Muss man doch nicht. Für mich wäre der Hauptgrund dass ich eine Nvidia Karte habe, es fast keine brauchbaren GSync-Monitore gibt und der Screen-Tearing-Effekt nach dem was ich gelesen habe bei 144Hz Monitoren deutlich abgeschwächt ist. Und wie andere sagten, in älteren/anspruchsloseren Spielen schafft man locker auch die 144fps. Bei mir wäre z.B. Skyrim interessant.
 
Pizza-König schrieb:
Kein HDR, kein DCI-P3, kein 10bit, kein >60Hz, ...
[...] (Wobei mir 27" bei 4K eh zu klein wären ... 32" sind viel sinvoller.)

Also als Übergangslösung bis endlich mal wieder was Vernünftiges rauskommt kann ich nur wärmstens den AOC U3277FWQ empfehlen. Der hat zwar kein HDR und auch nur 60Hz, dafür aber ein 32” MVA panel mit 10-bit color und kann laut Tomshardware sogar DCI-P3. Hab mir den im Dezember selbst geholt und bin soweit eig ganz zufrieden :) Und bei 349€ für so ein Gerät macht man eig eh nichts falsch!
 
Der bei tomshardware hat ne andere Endung.
Die Frage ist halt, wie viel vom DCI-P3 Farbraum abgedeckt wird und ob es dafür auch ein Profil gibt.

350€ für den Monitor ist ok, wenn er sich denn keine Patzer erlaubt.
In meinem Fall müsste ich allerdings noch mal ordentlich was drauflegen für einen vernünftigen Standfuß (es sei denn, mein alter passt zufällig ... bin mir grad nicht sicher, welche Bohrungen das sind).
 
Ja, wobei sich das Modell mit der anderen Endung nur durch einen USB-Hub, einen Standfuß mit mehr Verstellfunktionen und ein paar mehr mitgelieferte Kabel vom FWQ unterscheidet. Das Panel an sich ist absolut identisch (hab extra bei AOC nachgefragt):

AOC Service Germany schrieb:
Sehr geehrter Kunde,

vielen Dank für Ihre Anfrage:

das Panel ist dasselbe in beiden Geräten.
Da gibt es also keinen Unterschied.

Ansonsten, anderer Fuß (ohne Höhenverstellbarkeit, Swivel) und keine USB Anschlüsse beim U3277FWQ. Deshalb auch der geringere Preis.


Mit freundlichen Grüßen / With best regards / Cordialement

AOC Support Team

Als Standfuß hab ich mir bei Amazon noch für 26€ eine Fleximounts D2 Monitorhalterung zugelegt, wobei ich die auf Grund der umständlichen Höhenverstellbarkeit und schwergängigen Neigungseinstellung vermutlich nicht nochmal kaufen würde... Dann lieber DEN HIER, wobei der offiziell nur 7kg tragen darf (der AOC wiegt ohne Standfuß 8kg).

EDIT

Bessere Alternative
 
Zuletzt bearbeitet: (haarsträubenden Grammatikfehler korrigiert)
michel_men schrieb:
...
Für Far Cry 5 braucht es für über 60 Frames in 4K ein GK Gespann aus mind. 2 Highend(1080Ti) Karten!
...

übertreibe mal nicht so hemmungslos. Es sind dem Vernehmen nach nicht mindestens 2x GTX 1080Ti sondern 2x GTX 1080 bzw. 2x vega 56
2x GTX 1080 entspricht in etwa 1x GTX 1080 Ti (ggf OC).
Für 4k und Ultraeinstellungen finde ich das in Ordnung.
https://www.computerbase.de/2018-01/far-cry-5-sytemanforderungen/


Zudem vergisst Du, dass die nächste Kartengeneration leistungsmäßig wahrscheinlich über GTX 1080Ti liegen wird. So langsam kann man sich da also schon mit beschäftigten, insbesondere, wenn man nicht alle 2 Jahre einen neuen Monitor kaufen will. Ich stehe selber gerade vor der Überlegung, ob ich meinen FHD 60hz Monitor zu einem 1440p Monitor mit 144hz "aufrüste" oder nicht doch gleich auf 4K gehe. Selbst wenn meine GTX 1080 den momentan vielleicht noch nicht immer befeuern kann, stehe ich zwischen den Stühlen. Und einen "alten" 4k 60hz, den ich schon seit 2-3 Jahren haben kann, der ruft bei mir tatsächlich keine Jubelsprünge hervor, insbesondere nicht perspektivisch gesehen.
 
Einen UHD Monitor kann man auch mit gerinderen Auflösungen betreiben. Oft reicht schon wenn man 3200x1800 einstellt. Hat man immer noch wesentlich mehr Bilddetails und Kantenglättung als auf einem 1440p Display.

HDR10 ist aber eh nicht ideal. Es bräuchte eine Synchronsitation zwischen Quelle und Endgerät wie es Dorly Vision bietet. LG hat zwar Activ HDR aber sowas verzögert das Signal weil es erst analysiert werden muss.

Bei HDR10 hast halt das Problem dass Bildinhalte immer zu dunkel oder zu überstrahlt erscheinen wenn die Quelle andere Leuchtstärke als das Display hat. Man lässt sich dann zwar immer von den netten Blendeffekten von Lichtquellen täuschen aber merkt nicht dass man im dunklen oder hellen Bereich Details gegen über SDR verliert.
 
KuroSamurai117 schrieb:
Bei HDR10 hast halt das Problem dass Bildinhalte immer zu dunkel oder zu überstrahlt erscheinen wenn die Quelle andere Leuchtstärke als das Display hat. Man lässt sich dann zwar immer von den netten Blendeffekten von Lichtquellen täuschen aber merkt nicht dass man im dunklen oder hellen Bereich Details gegen über SDR verliert.

Viele TVs gehen schon ziemlich intelligent mit dieser Problematik um und kappen nicht einfach nur brutal Details in Bildbereichen, die z.B. zu hell für das Display sind (clipping), sondern passen die Helligkeitswerte des Gesamtbildes per Tone Mapping dynamisch an, um möglichst viele Details zu erhalten.

Aber so oder so gehen gegenüber SDR auch bei eher schlechten HDR-TVs keine Details verloren. SDR hat ja von vornherein einen ungleich kleineren Dynamikumfang und bringt deshalb all die Details, die in HDR-Inhalten bei übermäßigem Clipping verschluckt werden können, erst gar nicht mit.
 
ich bin auch kein großer Fan von HDR. M.E. führt das nur zu einer "Verkünstlichung" und "Verfälschung" des Bildes.
@KuroSamurai117
das Bild ist doch aber unscharf, wenn der Monitor/Game nicht in der nativen Auflösung läuft?
 
Smartin schrieb:
ich bin auch kein großer Fan von HDR. M.E. führt das nur zu einer "Verkünstlichung" und "Verfälschung" des Bildes.

Es kommt drauf an. Richtig eingsetzt sehen die HDR-Filme realistischer aus. Z.B. leuchten Straßenlaternen oder Sterne in der Nacht wirklich und sind nicht nur weiße Flecken. Die Realität hat halt einen viel größeren Dynamikumfang, als SDR es widergeben kann.

Und dann gibt es auch Filme, zu denen ein total überzogenes HDR super passt. Z.B. Guardians of the Galaxy 2. In dem Film muss einfach alles übertrieben grell und bunt sein. :)

das Bild ist doch aber unscharf, wenn der Monitor/Game nicht in der nativen Auflösung läuft?

Je größer die native Auflösung eines Displays ist, um so weniger Probleme hat man mit Unschärfe, auch wenn die dargestellte Auflösung nicht der nativen oder einem geraden Teiler davon entspricht.
Z.B. sehen auf dem 3200x1800-Display meines Notebooks 4k/UHD-Videos wunderbar scharf aus. Viel besser als FullHD auf einem nativen FullHD-Display.
 
@herdware
muss ich mal bei meinem Vater testen. Der hat einen 4k Monitor.Ich hatte mal einen 40 Zoll 4k TV als Monitor und da war ein großer qualitativer Unterschied zwischen nativer und skalierter Auflösung. Gut lag vielleicht auch daran, dass es ein TV und kein Monitor war.
 
Zurück
Oben