News LG 32UL750: Günstigerer UHD-VA-Monitor mit HDR 600 ohne „Nano IPS“

Ich frag mich was an dem teuren Gerät HR sein soll. Statischer Kontrast von 1:1300 und 8 bit Display.
 
-Ps-Y-cO- schrieb:
Ich kann dir jetzt schon sagen, dass BMW 2021 einen M3 Herstellen wird, der Günstiger sein wird, als der M5 ??
Dazu müssten sie erst einmal wieder einen M3 anbieten. Ist ja inzwischen ein M4 geworden :D.

Außerdem traue ich mich wetten einen M3/4 teurer konfigurieren zu können als die Basisversion vom M5.
 
Rollensatz schrieb:
[...]

Technik von 2018/19 und produziert neben dem ganzen "Marketing Blub" immer noch schlechtere Farben als mein alter Röhrenmonitor von 2000....Das muss man sich mal auf der Zunge zergehen lassen.

Habe ich grad gemacht und ungenießbar wieder ausgespuckt. Ich würde niemals auf die Idee kommen, mir wegen der Farben wieder einen Röhrenmonitor auf den Tisch zu stellen.
 
  • Gefällt mir
Reaktionen: derSafran und Firezeed
Ich natürlich auch nicht :) - will damit nur sagen, dass die Industrie uns seit 20 Jahren erzählen will wie Fortschrittlich die LCD Technik doch ist, aber sind wir doch mal ehrlich: Klar das Ding ist schmaler (deutlich) als ein Röhren TV und hat eine höhere Auflösung. Aber farbtechnisch inkl. schwarz und weiß + die Blickwinkel, Farbreinheit steuern wir jetzt langsam wieder auf "Röhrenniveau" vor 15 Jahren waren LCD´s der "letzte Rotz"
 
  • Gefällt mir
Reaktionen: derSafran, Celinna, Firezeed und eine weitere Person
Shoryuken94 schrieb:
Wie kann man etwas günstig nennen, wenn man den Preis nicht kennt?

Vielleicht hat Frank ja hellseherische Fähigkeiten ? Wer weiss. ^^
 
nTs|Razor schrieb:
Oh gott, wieder ein hässlicher monitor der aussieht wie aus den 90 ern mit hässlichem rahmen. Mensch lg, das könnt gerade ihr normal immer besser
Was ist denn mit dem Rahmen? Ist der dir zu dick? Dieser ganze dünne Scheiß ist doch dafür verantwortlich, daß das Bild immer fehlerhafter wird, weil da kein Platz mehr drin ist!
 
grossernagus schrieb:
Was ist denn mit dem Rahmen? Ist der dir zu dick? Dieser ganze dünne Scheiß ist doch dafür verantwortlich, daß das Bild immer fehlerhafter wird, weil da kein Platz mehr drin ist!

Was willst Du denn alles neben dem Panel einbauen, ne Klimaanlage, ne Sauna oder ne Bar? :evillol:
 
Leute hört gefälligst mit der Verklärung der Röhren auf. Den Mist will echt keiner wieder haben.
 
  • Gefällt mir
Reaktionen: TopAce888
Marcel55 schrieb:
Freesync 40-60Hz ist iregendwie etwas witzlos. 40 FPS sind in der Auflösung schon ne Hausnummer, wenn man nicht gerade ne 700-2700€ Grafikkarte im System hat.

Kommt auch sehr auf das Spiel und die Einstellungen an.
Nicht jeder spielt den ganzen Tag lang das neueste FarCry oder Tomb Raider. Die RX 480 schafft in Stellaris in 4K locker die 60fps.
 
KarlKarolinger schrieb:
Kommt auch sehr auf das Spiel und die Einstellungen an.
Nicht jeder spielt den ganzen Tag lang das neueste FarCry oder Tomb Raider. Die RX 480 schafft in Stellaris in 4K locker die 60fps.

4K Displays ohne Freesync mit LFC sind dann aber wirklich nur für ältere Titel oder sehr schnelle Grafikkarten geeignet.

Freesync Range 40-60hz =! LFC
 
tek9 schrieb:
4K Displays ohne Freesync mit LFC sind dann aber wirklich nur für ältere Titel oder sehr schnelle Grafikkarten geeignet.

Freesync Range 40-60hz =! LFC

Nö, meine Vega 64 schafft auch den einen oder anderen neuen Titel mit 40fps in 4K. Man sollte dann halt nicht jede Einstellung nach ganz oben drehen. Wenn man unbedingt mehr fps haben will, sieht 3200*1800 aber auch nahezu identisch aus (zumindest auf meinem LG MU67, der unter nativer Auflösung optional etwas nachschärft, was viel bringt) und läuft ein ganzes Stück schneller. Mit der RX 480 hab ich auch in 1440p gespielt. Ich schätze mal der Nachfolger der Vega schafft die 40fps ohnehin noch besser, so einen Monitor kauft man auch selten nur für 2 Jahre.
Dazu kommt noch, dass ich FreeSync selber auf min 33fps/Hz setzen kann, geht mittlerweile mit dem Custom Resolution Utility relativ einfach. Der Punkt ist halt nur, dass man keine 700€+ GPU braucht, um Spaß damit zu haben.
Und außerhalb von AAA müssen Titel nicht unbedingt älter sein, um geringere Anforderungen zu haben. Stellaris war auch bei Release nicht extrem fordernd, die damalige GTX 660 hatte darin in 4K wohl etwas zu kämpfen.... :D
 
KarlKarolinger schrieb:
, meine Vega 64 schafft auch den einen oder anderen neuen Titel mit 40fps in 4K

Schön das du meine Aussage verneinst und anschließend bestätigst ;)

Solche Argumentatsketten finde ich super.

"auch den einen oder anderen neuen Titel" meint das die meisten Spiele nicht mit 40fps laufen. Ergo würde Freesync auf dem LG 32UL750 idr. keine Wirkung zeigen. Super.

Ich habe nen iiyama der Freesync von 35-144hz und somit LFC unterstützt. Fällt die Framerate unter 35fps werden die Bilder doppelt ausgegeben damit das Display weiterhin in der Freesync Range arbeitet.

That's the way ;)

Das du ein Display besitzt das man per Tweak auf 33hz runter Schrauben kann, mag nett sein. Das geht aber bei weitem nicht mit jedem Panel. Von daher muss man nun warten und hoffen das es bei dem LG mit einem Tweak funktioniert... Die Hoffnung stirbt zuletzt
 
Zuletzt bearbeitet von einem Moderator:
tek9 schrieb:
Schön das du meine Aussage verneinst und anschließend bestätigst ;)

Solche Argumentatsketten finde ich super.

"auch den einen oder anderen neuen Titel" meint das die meisten Spiele nicht mit 40fps laufen. Ergo würde Freesync auf dem LG 32UL750 idr. keine Wirkung zeigen. Super.

Nein, ich kann nur nicht von allen Titeln sprechen, weil ich nicht alle ausprobiert hab. Ich kauf mir ja jetzt nicht alle neuen Spiele, um hier eine Internet-Diskussion zu "gewinnen". In den meisten Benchmarks sieht es aber ganz gut aus, wenn man hier und da nicht alles auf Ultra setzt.
Ich kann auch auf 3200*1800 gehen und dann läuft es, dann hab ich FreeSync und immer noch eine höhere Auflösung als bei 1440p.
 
-Ps-Y-cO- schrieb:
Ich kann dir jetzt schon sagen, dass der RAM Preis in 2019 günstiger sein wird, als er es in 2018 war
?

Ich komme auf dich zurück, wenn es dann doch nicht so ist. :daumen:
 
Frank schrieb:
@Shoryuken94 Es ist sicher, dass er günstiger als der 32UL950 ist, deshalb steht da günstiger, nicht günstig.

Die Überschrift stimmt damit trotzdem nicht. Da steht nämlich das es ein günstiger Montior ist, nicht das es ein Monitor ist, der günstiger ist als X.

Also ist die Kritik durchaus berechtigt. günstiger und günstiger als sind 2 verschiedene Paar Schuhe.
 
KarlKarolinger schrieb:
Ich kann auch auf 3200*1800 gehen und dann läuft es, dann hab ich FreeSync und immer noch eine höhere Auflösung als bei 1440p

Aha. Es wäre mir neu das ein TFT so gut skaliert das Auflösungen unterhalb der nativen Auflösung vernünftig aussehen.

Wo ist da der Mehrwert?

Edit: Du hast mittlerweile so viele Einschränkungen aufgezählt die man eingehen muss um mit einer Karte im unteren High End die magischen 40fps in 4K zu erreichen damit Freesync bei diesem Display wirksam ist.

Daher hast du letztendlich genau das bestätigt was ich eingangs skizziert haben.

Wir können sicherlich noch ein paar Runden herzlich darüber diskutieren, aber es ändert nichts daran:

Freesync Displays ohne LFC sind broken by design.

Insbesondere in 4K
 
Zuletzt bearbeitet von einem Moderator:
Botcruscher schrieb:
Leute hört gefälligst mit der Verklärung der Röhren auf. Den Mist will echt keiner wieder haben.
Nein, er hat schon recht. Sicher, LCD hat halt seine Vorteile. Aber eben auch seine Nachteile. Und genau auf ebendiese Nachteile spielt er an. Reaktionszeit bei Röhren? Quasi null. Verzögerung durch Signalaufbereitung? Keine, weil analog. Kein Tearing, Banding, Clouding, Glowing. Bessere Farbtreue. LCDs können technologiebedingt das Farbspektrum nicht einheitlich und konstant wiedergeben und bedarf einer aufwendigen Farbkorrektur, um einigermaßen das "echte Bild" wiedergeben zu können. So ziemlich jeder TV hat eine "Hautton-Korrektur...
Es gab diverse Lösungsansätze für das Problem der Farbverfälschung, Sharp hatte eine Zeit lang TVs mit 4 Grundfarben (Kennt noch jemand die Werbung mit "Sulu" George Takei?^^).
Oder aber andere Technologien, Plasma zum Beispiel. Anfangs schlecht, ebenfalls Probleme mit dem richtigen Farbton der Farbe rot, wurden Schritt fûr Schritt dessen Probleme ausgemerzt. Sonys Kuro Serie war quasi der erste Meilenstein in Sachen Bild wie die Realität, wurde aber durch die gesetzliche Limitierung des Stromverbrauchs von TV Geräten auf unter 500W quasi zum Tode verurteilt (Stichwort Helligkeit). Es dauerte dann ein paar Jahre, bis Panasonic wieder aufschließen konnte, aber wie gesagt, der Stromverbrauch... wobei 300W bei Maximalhelligkeit und komplett weißem Bild so gut wie nie erreicht wurden. typisch waren zwischen 100-220W. Gestorben ist Plasma aber weil die einzelnen Pixel einfach nicht kleiner zu bauen waren, also kein 4k möglich.
Die aktuelle Konkurrenztechnologie OLED ist mittlerweile theoretisch auf dem Stand der letzten Referenz-Plasmas aber mit wesentlich höherer Helligkeit, krankt aber immer noch am Problem des aufwendigen Ansprechens des Panels. Ganz simpel erklärt: die Hard- und Software muss erheblich tricksen, um das Panel so gut aussehen zu lassen. Dazu zählen auch Technologien, die die Probleme des Alterungsprozesses und dem Crosstalk einzelner OLED entgegenzuwirken.
mLED ist aktuell noch eher eine Machbarkeitsstudie, die wieder den Lösungsansatz von Plasma und OLED aufgreift.
LCD - in all seinen baulichen Variationen wie IPS, TN, VA- geht demnächst den technologischen Schritt, dass zwischen Hintergrundbeleuchtung und LC- Display ein weiteres, monochromes LCD eingefügt wird, um den Kontrast weiter zu steigern. Dazu muss die Hintergrundbeleuchtung aber heller sein, ergo steigt der Verbrauch. Damit nähern sich LCDs wieder an den Verbrauch der alten Plasmas an. Aber die Probleme der Farbverfälschung und der Trägheit des Panels bleiben.
Was mir als Halblaie unverständlich ist, ist dass bei LCD der Ansatz wie von Samsung damals bei ihrem OLED, jedem LCD (Sub)Pixel eine eigene Lichtquelle zu spendieren, nicht weiterverfolgt wird. Oder nennen sie es jetzt nur anders, nämlich mLED? Wer weiss...
Ergänzung ()

tek9 schrieb:
Aha. Es wäre mir neu das ein TFT so gut skaliert das Auflösungen unterhalb der nativen Auflösung vernünftig aussehen.
Das liegt am fehlenden Scaler. Es gibt richtig gute, kosten aber und werden deshalb nicht verbaut. Die Qualitätssteigerung ist in etwa vergleichbar zu Nvidias KI- unterstützten Bildverbesserung (mir fällt grad der Name nicht ein^^). High End Satreceiver zum Beispiel können schon seit Jahren die Qualität in diesem Ausmaß steigern. Kosten aber eine Menge Geld...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: grossernagus
Zurück
Oben