News High Dynamic Range: YouTube streamt jetzt auch HDR-Videos

Wattwanderer schrieb:
Ich meinte eher in Richtung intelligenteres Caching bzw. das Aufweichen des Prinzips Streaming.

Bei Amazon kann man Inhalte herunterladen. Denkbar wäre auch, dass das Abspielen mit Verzögerung startet. Ein fünf Minuten Flimchen startet erst nach einer Minute "Denkpause".

Wenn du unter "intelligentes Caching" den Download vor dem Abspielen meinst dann hat das herzlich wenig mit Streaming an sich zu tuen und genau darauf würde es hinaus laufen denn hättest du beispielsweise nur 1/10 der für das Video benötigten Bandbreite dann müßtest du mindestens das 9 fache an Abspielzeit vorausladen um es in einem Stück zu sehen. Deine 5 Minuten würden für einen richtigen Film höchstens für das Ausbügeln gelegentlicher Bandbreitenschwankungen reichen.
 
Kann man die Videos auch auf nicht offiziellen Geräten anschauen?
Bin der Meinung dass z.B. mein Smartphone auf jeden Fall ausreichende Bildqualität bietet. (Gute Schwarzwerte, hohe Maximalhelligkeit, ausreichende Farben und auch Quantum Dot wie die SUHD TVs).

Ansonsten geht es wohl langsam los, vielleicht nächstes Jahr mal schauen was ein UHD HDR TV kosten würde (47-49", mehr passt nicht und braucht es auch nicht da Abstand <= 2m).
 
updater14 schrieb:
Das Problem ist doch eher, dass durch die Auflösungen und Zusatzfeatures die Inhalte nicht besser werden. :freak:

Klar werden die Inhalte durch eine höhere Auflösung nicht besser. Aber es würde doch wesentlich mehr Spaß machen, wenn doch mal ein guter Film im TV läuft (solls ja ab und zu doch mal geben :D), diesen dann wenigstens in FHD "genießen" zu können, sofern das die Werbepausen zulassen natürlich.

Und FHD ist ja nun wirklich nichts mehr spektakuläres selbst im Gaming wird es teilweise schon eher "Low-End".
 
Meanwhile the 1080p Bitrate is still the same....

Wenn Youtube mal hier ansetzen würde um deren 1080p Qualität mal aus der Steinzeit zu befördern, das währe schön.

Was bringt mir 1080p HDR wenn ich die Video"brocken" (mit Pixel is da nichts) lose erkennen kann.
 
Ich hab da irgendwas technisch nicht verstanden. Ich kann also nur mit entsprechendem Ausgabegerät HDR-Videos wiedergeben?

Wieso kann ein normaler Bildschirm wie mein Eizo kein HDR-Video von YT in HDR wiedergeben?

Für rudimentäre Erklärung dankbar :)
 
sft211 schrieb:
Schön wer mal wenn es für den PC Markt TFTs geben würde mit 4K 28 Zoll DP 1.4 Free Sync Höhenverstellbar und eben HDR und das mit 120HZ und guten Panel und ich Kaufe das Teil

Und was willst du dafür ausgeben? Das wird bestimmt nicht billig!
 
@esp...

Ist es ein Problem das Google lösen kann?

Die Videos von früher sind ja manchmal nicht mal 240p. Google produziert ja die Inhalte nicht.
 
Do Berek schrieb:
Und was willst du dafür ausgeben? Das wird bestimmt nicht billig!
Aus Verzweiflung über die miese Qualität alles erhältlichen würde ich wahrscheinlich bis 5000€ mitgehen. Dann muss der aber auch echt gut sein! Wünschenswert wäre eher Richtung 1000€
 
Statt nutzlose Features zu integrieren, die eh noch keiner nutzen kann, sollten die lieber endlich mal genug Bandbreite für 1080p Videos bereit stellen.
Was bringt mir HDR, wenn das Bildmaterial vom Encoder trotzdem noch auf's übelste zerfetzt wird?

Und wann fixen die endlich mal ihre zahlreichen Bugs, was die Kommentar-Funktion angeht?

Und wann bekommen wir endlich mal wieder sowas wie die Kategorien für Abos, die einfach ohne Grund ersatzlos gestrichen wurden?

Ich habe das Gefühl, Youtube wird von völlig inkompetenten Menschen geleitet.
 
Verstehe nicht was der ganze Dschungel soll! Das ganze USB 3 / USB 3.1 durcheinander, jetzt auch noch HDR. Hersteller XY setzt auf die Technik, der andere auf HDR10 und die anderen auf Dolby?!? Mal nebenbei, wer supportet eigentlich Dolby? Es gibt doch mehrere Standards. Filme mit HDR auf BluRay werden ja wohl auf Dolby setzen? Bin da unwissend und planlos dazu! :D

Mir ist nur bekannt das Dolby eher ungern supported wird, Aufgrund der Lizenzkosten. Die Sony setzt auf HDR10 mit BT.2020, TVs + PS4 / PS4 Pro.
 
Zuletzt bearbeitet:
Wie ist denn das jetzt bei Windows? Ich habe ja ein 32 Bit Modus. Also 3x8 Bit + 8 Bit Transparenz. Heißt das HDR, dass jeder Ton 1024 statt 256 Abstufungen hat und sind auch die Farbräume genormt? Also dann einfach 40 Bit? Ist der Gammutbereich tatsächlich größer? Oder sind die Abstufungen kleiner. Erstes heißt ja dass der Bereich zwischen Rot, Grün und Blau noch krasser ist, als beim herkömmlichen Monitor. Bzw dass das Weiß dich schon blendet? Beim 2. ist gemeint, dass Abstufungen der Farben feiner ist. Also dass man im Schwarz keine Flecken von z.B. im dunkelgrauen Nebel mehr sieht. Wie damals der 8 oder 16 Bit Modus in Windows. Gleicher Gammutbereich aber weniger Farben. Gerade beim Wald beim verlinktenVideo, ist das auf mein Monitor krass übersättigt. Also schon ausgebrannt. Das würde für Punkt 1 sprechen. Mein Monitor ist geeicht.

Mit größeren Gammutbereich: Ist HDR geil! Nur mehr Farben? Kann man auch Dithern. Habe ich immer in Photoshop gemacht. Sieht man bei 3x8 Bit nicht.

Tatsache ist, dass wir ca 14 bit sehen mit unseren Augen und kamera auch so aufnehmen können. Also ca 16 000 Abstufungen je Farbton. MMn ist da noch Potenzial. Super HDR? :D
 
Zuletzt bearbeitet:
Also die Videos sehen ja echt sehr Künstlich aus. Habe nun kein HDR Gerät aber wenn das wirklich so aussieht für mich ein No Go.

Ich habe mir aber schon so was gedacht. Genauso der Curved kram.

Ich bin Student und meine Frau bezieht Hartz IV, und wir konnten uns trotzdem einen 4K HDR Fernseher leisten. Von wegen es gibt nur wenige HDR-Ausgabegeräte.

Das hat nix mit Hartz 4 zu tun. Sondern wie Alt der TV ist.

4K Geräte sind auch noch nicht sonderlich verbreitet weil eben nicht laufend ein neuer TV gekauft wird. Und ob nun jeder 4K TV HDR hat keine Ahnung.
 
Zuletzt bearbeitet:
Koto schrieb:
Also die Videos sehen ja echt sehr Künstlich aus. Habe nun kein HDR Gerät aber wenn das wirklich so aussieht für mich ein No Go.

Ich habe mir aber schon so was gedacht. Videos die einen Blenden?

Ich vermute das liegt tatsächlich daran, weil die Farben einfach außerhalb des Bereiches sind, die unsere Monitore anzeigen können. Der graue Bereich im Bild. Also werden die Bereiche, die außerhalb des Gammuts liegen einfach als 100% genommen. Also die Farben die direkt am Rande des Dreiecks liegen. Die sind ja künstlich und knallig. Was letztendlich kacke aussieht. Gerade beim Drucken merkt man oft krasse Unterschiede zum Bildschirm. Hat aber noch andere Gründe.

CIExy1931_srgb_gamut.png

Ich kaufe erst, wenn ich IPS 1440p bzw 2160p mit 120Hz und 10 Bit für unter 500€ bekomme. Das dauert sicherlich noch. ;)
 
Zuletzt bearbeitet:
Habe mir vor 3 Wochen einen Samsung KS8090 in 55 zoll gegönnt, diese Nachricht freut mich, morgen erstmal ausprobieren und übermorgen kommt die Ps4 Pro :D
 
HDR ist nur der nächste Bullshit, den uns die TV-Industrie verkaufen will, nachdem 3D nicht gezogen hat.

Der Großteil der Konsumenten versteht ja nicht mal was es ist - und die, die es technsich verstehen, schütteln nur den Kopf über die Leichtgläubigkeit der anderen.

In den Geräten stecken genau die gleichen Panels mit den gleichen Farbräumen - und ob die Bilddaten nun als 8-Bit Farbwerte oder Float-Zahlen ankommen macht am Ende für den Betrachter überhaupt keinen Unterschied. Er kann bei bewegtem Videomaterial ohnehin keine Farbabstufungen mehr erkennen und das Helligkeitspotenzial nach oben nutzt eh niemand - die meisten drehen nach der Austellung ihrer neuen Geräte erstmal deren Helligkeit runter, weil die Fabrikeinstellungen für den abendlichen Filmgenuss im abgedunkelten Wohnzimmer oft zu unangenehm hell ist. Wer schaut schon gerne im Dunkeln direkt in eine 100 Watt Lampe?
 
Zuletzt bearbeitet:
XdaywalkerX schrieb:
Hab heute den Samsung UE49KS7090 bestellt, ich hoffe das wird kein Griff ins Klo. Bisher nur positive Berichte gelesen und n 10bit Panel hat er auch.

Der 7090 hat ein 8bit Panel
 
Zurück
Oben