HDR bei Bildschirmauswahl berücksichtigen

HummelBommel

Banned
Registriert
Juni 2020
Beiträge
90
Ich möchte einen Monitor kaufen. Ich benötige ihn nicht zum Spielen, sondern um die Aktivitäten auf meinem Desktop aufzunehmen und daraus Videos zu erstellen. Aktivitäten sind z. B. das Konfigurieren eines Servers, das Eingeben von Programmcode aber auch das Erstellen einer Animation mit Blender.

Mir persönlich ist besonders wichtig, dass diejenigen, die sich die Videos später ansehen, möglichst viele Details in hoher Bildschärfe erkennen können. Ein hoher Betrachtungswinkel oder eine geringe Reaktionszeit sind eher unwichtig, weil ich nicht spiele und meistens frontal auf den Monitor blicke.

Nachdem ich Geizhals durchstöbert habe, bin ich mir allerdings nicht sicher welche Kennzahlen die Bildschärfe abdecken. Mir schwebt HDR vor und deshalb habe ich mich vorrangig auf das Kontrastverhältnis und die Farbtiefe konzentriert. Kann man aus diesen beiden Kennzahlen ableiten, dass HDR auf einem Monitor mit einem Kontrastverhältnis von 100.000.000:1 (dynamisch) und einer Farbtiefe von 10bit später möglich sein wird (vorausgesetzt natürlich, das Film- und Bildmaterial sowie HDMI-Kabel und Betriebssystem unterstützen ebenfalls HDR) oder muss der Paneltyp HDR explizit unterstützen?
 
HDR400 ist nicht wirklich HDR. Das was du wahrscheinlich dir denkst ist HDR1000 und das ist sehr teuer.
HDR von einem Bildschirm mit Code ist so ziemlich sinnfrei..

Du willst lediglich in FullHD aufnehmen und das mit einer guten Bitrate. Das reicht.
Dein Monitor ist irrelevant in diesem Szenario, da du ja deinen nicht deinen Bildschirm abfilmst sondern hoffentlich ein Programm dafür benutzt. Da ist es egal, ob dein Monitor 1% sRGB Abdeckung hätte und co.
 
Bildschärfe ist die Auflösung. 1920x1080 auf 5 Zoll sind schärfer als auf 50 Zoll, die ausschlaggebene Kenngröße hierbei sind die PPI (pixel per inch) oder auch DPI (dots per inch) , je höher, desto schärfer.

Für HDR sind die Kenngrößen zum einen die NITs und davon abgeleitet der VESA-Standard für HDR (HDR400, 600 usw.) und damit verbunden die Helligkeit (ein Monitor mit 10 Bit und 300 cd/m² kann zwar HDR darstellen, aber erreicht nicht einmal den HDR400-Standard)

@Tamron: HDR400 IST HDR, wenn auch unbrauchbares
 
HDR ist vor allem für Videos und Spiele, für den Anwendungswecks Desktop ist das ziemlich irrelevant. Dazu kommt das der Monitor gar keinen Einfluss auf erstellte Videos hat. Da ist eher das Problem wenn man einen zu guten Monitor hat und die Leute die sie ansehen einen schlechten. Leichte Farbunterschiede werden auf schlechten Monitoren manchmal unterschlagen. Ist kein Grund sich einen schlechten Monitor zu kaufen, aber das sollte einem bewusst sein.

Dynamischer Kontrast ist irrelevant, die Zahl sagt nichts aus. Echtes, brauchbares HDR bekommt man momentan nur mit FALD oder OLED. Im TV Bereich ist das noch ganz okay, im Monitorbereich ist das die absolute Seltenheit.

HDR auf dem PC ist recht neu und macht mehr Kopfschmerzen als es Vorteile bringt. Wenn man nicht unbedingt Filme mit HDR schauen oder Spiele mit HDR Unterstützung spielen will, würde ich es momentan noch ignorieren.
 
Ah okay, HDR bezeichnet ja (laut Wikipedia) ein Hochkontrastbild. D. h. mit objektiver Schärfe hat das erstmal nichts zutun, oder? Es unterstützt eher die subjektiv wahrgenommene Schärfe?

Meine Frage war ja, ob man davon ausgehen kann, dass ein Monitor mit entsprechenden Kontrastverhältnis und farbtiefe automatisch HDR-fähig ist!?
Ergänzung ()

Dalek schrieb:
Dazu kommt das der Monitor gar keinen Einfluss auf erstellte Videos hat.

Das irritiert mich etwas. Wenn ich z. B. ein Screenshot (als Bild) aufnehme, hat dieser auch die Auflösung meines Monitors. Warum sollte das bei Videos anders sein?
 
HummelBommel schrieb:
Es unterstützt eher die subjektiv wahrgenommene Schärfe?
Auch nicht. HDR steht vor allem für Farbumfang (erweiterter Farbraum, daher sollte das Panel 10 Bit oder min. 8 Bit + FRC haben, die Inhalte müssen das aber auch liefern) und gute Kontraste, also sehr niedrige Schwarzwerte und Spitzenhelligkeiten (Explosionen oder Sonne etc), mit Schärfe hat das so erst einmal gar nichts zu tun. Dafür ist vor allem die Hintergrundbeleuchtungstechnik wichtig. HDR mit einer EDGE Beleuchtung ist ziemlich sinnlos, da diese gar nicht gezielt genug angesteuert werden kann.
 
Es geht um die Helligkeitskontraste. Du hast da einen Denkfehler, wenn du das auf die Schärfe der Darstellung beziehst.

Edit: zu langsam
 
cvzone schrieb:
HDR steht vor allem für Farbumfang (erweiterter Farbraum, daher sollte das Panel 10 Bit oder min. 8 Bit + FRC haben, die Inhalte müssen das aber auch liefern) und gute Kontraste.

Das habe ich weiter oben ja gefragt, ob man aus Farbtiefe und Kontrast HDR ableiten kann.
 
HummelBommel schrieb:
Das irritiert mich etwas. Wenn ich z. B. ein Screenshot (als Bild) aufnehme, hat dieser auch die Auflösung meines Monitors. Warum sollte das bei Videos anders sein?

Die Auflösung hat einen Einfluss wenn man direkt vom Desktop aufnimmt, ja. Aber alle anderen Eigenschaften des Bildschirms sind egal, insbesondere die Bildqualität.
 
HummelBommel schrieb:
Warum sollte das bei Videos anders sein?
Weil die Quelle der Videos nicht dein Bildschirm ist ;) Und wenn die nur in 720p, 8 Bit Farben und mit einer SDR Helligkeit erstellt wurden, dann ändert dein Bildschirm da auch nichts dran.
 
HummelBommel schrieb:
Farbtiefe und Kontrast HDR ableiten kann
Nein, weil da die Spitzenhelligkeit und der Schwarzwert sowie die gezielte Beleuchtung komplett fehlt, und das am relevantesten ist.

Edit: Wobei die Aussage von mir so nicht ganz stimmt, der Kontrast ergibt sich ja aus Spitzenhelligkeit und Schwarzwert. Allerdings werden zu oft dynamische Kontraste angegeben, die eher Unsinn sind und wie gesagt, mit Edge Beleuchtung und 350-400 Nits Helligkeit geht eh nichts gescheit.

Ab HDR600 Zertifizierung kann man damit was anfangen. Alles darunter ist eher nicht so toll und wenn es nicht Zertifiziert ist muss und kann man aus den Eckdaten auch nichts ableiten.
 
Zuletzt bearbeitet:
cvzone schrieb:
Nein, weil da die Spitzenhelligkeit und der Schwarzwert sowie die gezielte Beleuchtung komplett fehlt, und das am relevantesten ist.

Verstehe...Ich vermute nach Eigenschaften wie Spitzenhelligkeitswerte, Schwarzwert und Beleuchtung kann man bei Geizhals nicht filtern. Was macht man, um sicherzustellen, dass der Monitor HDR unterstützt?

Was ist die Quelle bei Desktop-Aufnahmen?
 
HummelBommel schrieb:
dass der Monitor HDR unterstützt?
Generell gibt es HDR als Funktion, das sagt aber über die Qualität gar nichts aus. Danach sollte man auch Filtern können. Darüber hinaus gibt es Zertifizierungen, HDR400, HDR600, HDR1000 etc.

Ab HDR600 hat man möglicherweise sinnvolles HDR, aber auch da muss man wieder Tests lesen.

Wie oben geschrieben machen die Hersteller derzeit im PC Bereich noch was sie wollen und das ist im Vergleich zu TVs alles nicht sehr berauschend.
 
Und es gibt sehrwohl Monitore, die haben 300cd/m2 und können HDR400 oder so. Denn bei HDR wird ja im Wesentlichen die Spitzenhelligkeit an einzelnen Punkten bewertet und nicht über den ganzen Bildschirm.
Mein Monitor hat ca. 400 cd/m2 und kann HDR600 ist dennoch nicht zu gebrauchen :D da es immer noch nicht gut ist.
Einen Monitor nach HDR-Qualität auszusuchen ist noch recht unüblich finde ich und das Angebot eher dürftig. Liest man sich die Berichte der aktuellen HDR1000er durch, scheint die Bildqualität auch nicht so toll zu sein. Meist sind die Geräte auch sehr groß. OLED ist das deutlich im Vorteil. Aber im Monitorbereich noch nicht etabliert, da müsste dann ein TV für den Monitoreinsatz her.
 
Ich möchte meine Desktop in 4K-Qualität aufnehmen. Welche Hard- und Software braucht mann denn dafür?
 
HummelBommel schrieb:
Was ist die Quelle bei Desktop-Aufnahmen?
Der Screenbuffer der Grafikkarte. In dem Format mit dem der Monitor angesteuert wird.

HummelBommel schrieb:
Was macht man, um sicherzustellen, dass der Monitor HDR unterstützt?
HDR10 ist das Format, dass da am Desktop üblich ist (zumindest bei externen Monitoren).

Aber bloß weil der Monitor das Format versteht, heißt dass noch lange nicht, dass er es sinnvoll darstellen kann, wie @cvzone schon erkärt hat.

Mal ganz abgesehen davon, dass kaum Windows Desktop-Anwendungen (Spiele und Videoplayer mal ausgenommen) HDR erzeugen/wiedergeben können und das am Desktop deshalb einige Nachteile mit sich bringen kann.
 
HummelBommel schrieb:
Definiere doch mal bitte näher was für dich "4K Qualität" ist. 4K (du meinst im PC Bereich Ultra HD) sind 3820x2160 Pixel und mehr erstmal nicht. Und dazu gibt es Screen Capture Karten (Elgato) oder einfach Software.

Diese Software oder Karten zeichnen aber einfach auf was die Grafikkarte ausgibt, nicht was der Bildschirm anzeigt. Wie gut der Bildschirm ist spielt also bei gar keine Rolle.
 
Zurück
Oben