Lohnt sich ein 4K Monitor

lohnt sich ... Fragen lassen sich immer ganz einfach beantworten: Nein! wenn du fragen musst! Sonst wüsstest du das selber! Rein zum Filme schauen wird dir schon das DRM nen Strich durch die Rechnung machen ... Spielen in 4k; Photshop in 4k Videoschnitt in 4k das sind die Anwendungen für 4k Monitore!

Und wer da keinen Unterschied sieht ( Nen Vergleich ist nur Möglich 4k &FullHD nebeneinander) sollte dringest den Augenoptiker seines Vertrauens aufsuchen!

Es ist deswegen eine Meinung, weil ich in der Tat, so, wie auch andere hier es als Reaktion auf meinen Post vermutet haben, noch nie einen 4k-Monitor mein Eigen nannte. Auch nicht testweise. Daher kann ich keinen Erfahrungsbericht liefern, sondern eben nur eine Meinung, nämlich: dass ich diese Innovation für überflüssig erachte.

Du bestätigst hier also gerade selber, das du gar keinen 4k Monitor besitzt und deswegen das Ganze gar nicht beurteilen kannst? Also ist deine Aussage absolut wertlos, eine Meinung die du noch nicht mal mit Tatsachen begründen kannst! Also womit begründest du den deine Meinung außer durch Unwissenheit und Unfähigkeit?
Taugt nix weil ich es nicht besser weis und nicht brauche? Inkompetenz zur Schau gestellt par excellence! Tja dann wären wir wohl alle noch in der Steinzeit!
 
Zuletzt bearbeitet:
sidewinderpeter schrieb:
noch nie einen 4k-Monitor mein Eigen nannte. Auch nicht testweise. Daher kann ich keinen Erfahrungsbericht liefern

Danke für diese ehrliche Aussage.
Ich haben soeben, in dem von Dir vorgeschlagenen Wörterbuch, besser gesagt Duden.de nachgeschaut.
Dort gilt "nicht sachverständig" als Synonym für inkompetent.
Dennoch möchte ich mich entschuldigen, falls es beleidigend rüber kam.
Nehmen wir halt nicht sachverständig, dann das trifft mMn. zu, da Du...

1.) keine Erfahrung mit 4K Monitoren hast
2.) Sync-Technologien mit Frequenzen>100HZ gleichsetzt.
 
Andregee schrieb:
Eben weil bei einem LCD die Bilder nicht gepulst und nicht durch eine Schwarzphase getrennt dargestellt werden sind hohe Bildraten für eine hohe Bewegungsschärfe notwendig weil das Auge den Bewegungen auf dem Panel folgen kann so das es auf der Netzhaut alles verschmiert. Je höher die Bildrate umso kleiner sind die Bildsprünge die das Auge auf dem Panel nachverfolgen kann und umso geringer der Schmiereffekt

Gut, da gebe ich Dir Recht: es kann bei schlechten Panels verwaschen aussehen, wobei hierfür IMHO die Reaktionszeit bzw. die "Grau zu Grau"-Messung als Indikatoren für die beschriebenen Effekte mehr Aussagekraft haben. Soweit ich weiß sind die Hersteller hier bei den Übertreibungen aber auch nicht Kleinlich, denn irgendwelche theoretischen Angaben in den Specs helfen wenig weiter. Praktisch muss man jedes Panel ausprobieren, ob es einem zusagt, oder eben nicht. Ich habe z.B. einen bald 10 Jahre alten LG 1980*1200 LCD-Monitor, der ein flotteres und obendrein kontrastreicheres Bild liefert, als alle LED-Dinger, die ich danach gekauft hab...für ein Budget-Gerät ist er für Bild- und Videobearbeitung fast so gut brauchbar, wie Profi-Geräte von z.B. EIZO, Apple etc.
 
Hast Du auch die entsprechenden Voraussetzungen?

Damit meine ich nicht einmal die Frage, ob der PC es schafft.
Für einen 4K Stream aus dem Internet brauchst Du auch minimum eine stabile 50 MBit Leitung.
 
Netflix selber gibt 25 Mbit für 4K vor. Daher sollte man an die 4K Streams auch keine allzu hohen Ansprüche stellen.
 
naja das liegt aber wieder daran das die Streams wieder kastriert sind! Ebenso wie FullHD Streams eben nicht an ne BluRay rannkommen!
Ne 4K von BluRay sieht da ganz anders aus ... ( ordentlich gemachte: hab da auch erst ne BluRay gesehen von nem alten Klassiker: als Ausgangsmaterieal wurde VHS 1:1 genommnen, da hätte man sich BluRay auch sparen können) Das sind dann aber Fehler in der Ausführung und nicht Fehler des Mediums!
 
Zuletzt bearbeitet:
sidewinderpeter schrieb:

Gut, dass du zugibst keinen 4k zu besitzen, damit kann man deine Aussage einordnen.

Was mich an deiner Aussage viel mehr stört ist die Verallgemeinerung "dass 4k in Bereichen rangiert, die praktisch keinen Unterschied machen"
32" TV FHD vs. 4k auf 5m Abstand? Bringt absolut nichts.
Ich habe einen 49" UHD auf 2-2,5 m Entfernung, da sehe ich den unterschied ob FHD, UHD oder 4k BD als Quelle anliegt. (Wobei viele Streams in UHD einen körnigen look haben... nicht so toll)

Als Bildschirm am PC 27-32" mit <1m abstand ist der unterschied aber gewaltig.
Ebenso ist G-Sync ein durchaus sichtbarer unterschied, vor allem wenn man es hat und dann wieder aus macht ;)
 
@ sidewinderpeter: Nur um meinen Senf zu "100Hz+ ist völliger Quatsch" (Aussage, kein Zitat) noch dazuzugeben: Die Aussagen "Das menschliche Auge kann ab 25 Bildern pro Sekunde keine Einzelbilder mehr erkennen" und "Das menschliche Auge kann keinen Unterschied zwischen Bildmaterial mit 25Hz und Bildwiederholraten > 25Hz erkennen" sind verschieden. Was, auch wenn es meinetwegen Leute gibt, die behaupten, ab einer gewissen Bildwiederholrate keinen Unterschied mehr sehen, auf jeden Fall bemerkbar bleibt, ist der deutlich kürzere Inputlag, der kann bei 60Hz nämlich nicht weniger als 16,6 ms kurz werden. Bei 144Hz liegt die untere Schranke bei 7ms, das ist sehr deutlich zu merken, gerade in Shootern oder anderen "Sportspielen" wie Rocket League.

Und: Ob 4K eine sinnlose Entwicklung ist, hast Du ja vielleicht doch schonmal gemerkt: Pixeldichte ist hier das Zauberwort. Bei Handys war die früher ziemlich niedrig, seit dem iPhone 4 (wo das erste Mal von Retina-Display gesprochen wurde), liegt die bei den meisten Handys über 225 ppi, was bei normaler Betrachtungsentfernung diejenige Pixeldichte ist, ab der das Auge keine Einzelpixel mehr unterscheiden kann. Und das ist für das Arbeiten am PC (Texte schreiben, lesen, Bilder anschauen und bearbeiten) doch ein ganz anderes Gefühl als die typischen 90 ppi von einem 24" 1080p Display.
 
Zuletzt bearbeitet:
Wie schon gesagt wurde, erstmal auf das DRM achten. Das ist essenziell. Netflix und Amazon haben ganz bestimmte Systemvoraussetzungen, was bedeutet, dass die Videos nur auf der Hardware laufen, auf denen auch das DRM des Anbieters läuft.
Zudem bietet Amazon z.B. über den PC keinen 5.1 Sound an. Bei Netflix braucht man selbst für 1080p schon den richtigen Browser (ich glaube es war Microsoft Edge) um überhaupt nur 1080p zu bekommen.

Und für YouTube lohnt sich ein 4K Monitor nur bedingt, da die Bitrate zu gering ist, um die Schärfe des Displays überhaupt auszunutzen. Der Unterschied zwischen einem 1080p Video und einem 1440p Video ist auf YouTube selbst mit einem 1080p Monitor ernorm.
Wenn du also z.B. aus nem 1440p Monitor die beste Qualität holen willst, musst du da schon die 4K Option nutzen. Zwischen YouTube 4K auf nem 1440p Display und einem 4K Display dürfte daher so gut wie kein Unterschied mehr erkennbar sein.

Und wenn der Content sehr komplex ist, und die Bitrate an ihre Grenzen bringt (vermatschen, blockbildung), dann erkenne ich auch auf nem 1080p Display noch den unterschied zwischen 1440p und 4K. Vor allem bei Gameplayvideos mit viel Vegetation ist der Unterschied extrem. Während bei 1080p und 1440p alles vermatscht, ist es bei 4K dank der höheren Bitrate noch in Ordnung.

Die ganze Auflösung ist wertlos, wenn generell dank zu niedriger Bitrate die Details im Bild fehlen...


Rage schrieb:
Und: Ob 4K eine sinnlose Entwicklung ist, hast Du ja vielleicht doch schonmal gemerkt: Pixeldichte ist hier das Zauberwort. Bei Handys war die früher ziemlich niedrig, seit dem iPhone 4 (wo das erste Mal von Retina-Display gesprochen wurde), liegt die bei den meisten Handys über 225 ppi, was bei normaler Betrachtungsentfernung diejenige Pixeldichte ist, ab der das Auge keine Einzelpixel mehr unterscheiden kann. Und das ist für das Arbeiten am PC (Texte schreiben, lesen, Bilder anschauen und bearbeiten) doch ein ganz anderes Gefühl als die typischen 90 ppi von einem 24" 1080p Display.

Kleine Korrektur, das iPhone 4 hatte 326 ppi.
Das iPad hat 264 ppi (ist dank leicht höherem betrachtungsabstand subjektiv genauso scharf, wie die 326 ppi auf dem iPhone)
 
Zuletzt bearbeitet von einem Moderator:
@Rage & Sidewinderpeter:

Oder wenn sich ein Objekt schnell von links nach rechts bewegt. Man erkennt nicht scharf jedes einzelne Bild, aber die Bewegung insgesamt wird als flüssiger wahrgenommen.
 
Jedenfalls kann ich mich noch gut an die Zeit erinnern, als die Hersteller mit dem Vermarktungsemblem "HD" viele Nutzer geblendet haben, weil die Geräte gar kein Full-HD hatten, geschweige denn von den Bildwiderholraten und Kontrast etc. Deswegen bin ich damals noch lange bei meinem iiyama 19" A901HT mit Diamondtron Bildröhre und 0,24er Schlitzmaske und 100Hz geblieben...und hatte praktisch das bessere Bild, als die ganzen "Avantgardisten".

Und genauso denke ich eben auch, dass heute ein guter FHD-Bildschirm praktisch mehr wert ist, als irgend ein billiges 4k-Panel. Daher würde ich, ohne, wie gesagt, mich schon intensiv und professionell(wie andere hier, z.B. mit Ego-Shootern) damit beschäftigt zu haben, momentan zur Aussage tendieren, dass 4k noch nicht lohnt...
 
Zuletzt bearbeitet:
Rage schrieb:
Was, auch wenn es meinetwegen Leute gibt, die behaupten, ab einer gewissen Bildwiederholrate keinen Unterschied mehr sehen, auf jeden Fall bemerkbar bleibt, ist der deutlich kürzere Inputlag, der kann bei 60Hz nämlich nicht weniger als 16,6 ms kurz werden. Bei 144Hz liegt die untere Schranke bei 7ms, das ist sehr deutlich zu merken, gerade in Shootern oder anderen "Sportspielen" wie Rocket League.

Die 16,6 ms bzw. 7ms beschreiben die Bilddauer, vorausgesetzt die Grafikkarte kann 60 bzw. 144 fps liefern.
Input Lag ist nicht gleichzusetzen mit der Bilddauer, siehe:
http://www.prad.de/new/monitore/shownews_lex4348.html
http://www.prad.de/new/monitore/shownews_lex4347.html
 
@sidewinderpeter

Das ist so nicht ganz richtig.
90% der angeblichen 4K Filme sind einfach nur stumpf hochskalliert.
Ältere Filme die noch auf Band aufgenommen wurden haben meist ein viel besseres 4K Bild. (http://realorfake4k.com/).
Außerdem Spielt die Bildschirmgröße zum Sitzabstand eine große rolle.
 
Also zum Spielen würde ich mal behaupten ist son UltraWidescreen Monitor noch besser als nen 16:9 4K Monitor.
 
McMOK schrieb:
Ältere Filme die noch auf Band aufgenommen wurden haben meist ein viel besseres 4K Bild. (http://realorfake4k.com/).
Außerdem Spielt die Bildschirmgröße zum Sitzabstand eine große rolle.

Da stimme ich ja völlig zu: ich sage ja nur, dass "alt" nicht unbedingt schlecht ist. Ich war damals auch absolut fasziniert, als ich beim ersten Einschalten auf ZDF auf meinem neuen FHD-Fernseher dann ein DVB-C HD Bild von irgend nem alten 60er Jahre Klassiker gesehen hab, das absolut perfekt aussah: jede Falte im Anzug(ja, seinerzeit haben die Filmprotagonisten noch ordentliche Kleidung getragen) war zu sehen. Ich glaube es war "Der Pate" oder so. Und da ist mir dann klar geworden, dass gerade in der Optik(wie im HiFi übrigens auch) halt auch viel von der (auch schon in den 60ern vorhandenen) verwendeten Technik abhängt und nicht von irgendwelchen Marketing-Labeln, wie FHD und 4k. Und daher bleibe ich bei meinem anfänglich bereits subtil eingebrachten Credo: Augen auf, beim Panelkauf^^ :)
 
Zuletzt bearbeitet:
Mich würde mal interessieren warum es ein 4K "Monitor" zum Filmegucken sein soll?
​Dafür ist ein TV doch viel besser geeignet.
 
Unnu schrieb:
Mich würde mal interessieren warum es ein 4K "Monitor" zum Filmegucken sein soll?
​Dafür ist ein TV doch viel besser geeignet.

Weil ich lieber Netflix am PC Monitor als am TV schaue.
 
Lohnt sich ein 4K Monitor
Ja, wenn die Größe und Qualität des Bildschirms stimmt und du auch Inhalte hast.
Wenn du am Schreibtisch vor einem 50 Zoll Bildschirm sitzen möchtest, bitte, tue es.

Weil ich lieber Netflix am PC Monitor als am TV schaue.
Diese Unsitte ist nicht mehr zu stoppen, das Internet wird zum Streaming-Medium.
Aber die Angebote sind halt da, das ist es eben.
 
Zurück
Oben