News 4K Blu-ray: Finaler Standard bietet Ultra HD, HDR und mehr FPS

highks schrieb:
Kommt darauf an, wie lange ein Rohling zum Brennen braucht...
BD 1x dauerte am Anfang ja ca. 1,5 Stunden für einen Rohling - wenn man das übertragen kann auf die neuen, großen 100er Rohlinge, dann brauchst du immer noch 15 Stunden zum Brennen und musst alle 1,5 Stunden den Rohling wechseln...
Ergänzung ()

48fps ist kein Effekt - es ist das Fehlen von Ruckeln, was dein Gehirn als "Fernsehen" interpretiert. Wenn es dagegen zuckelige 24fps sieht, dann sagt dein Gehirn "Film". Das ist ein bisschen wie mit der Farbe: wenn ein Film in S/W ist, dann denkst du automatisch "oh, große Kunst"

Reine Gewohnheitssache, und eigentlich eine sehr schlechte Gewohnheit mit den 24fps. Die natürliche Bewegung bekommt man nur mit 48fps oder mehr, das weiß ja jeder Gamer sehr gut.

also wenn ich ne normale 25 GB Bluray brenne dauert das ca 16 Minuten..müsste dann bei 50 GB 30 Minuten sein und 100 dann ne Stunde und 1 TB dann 10 Stunden..was solls..hauptsache die Daten sind von der Platte dann.......damit könnte ich aber leben..weil ich eh nur Daten BD brenne..und die dann archiviere...

also gerade nochmal nachgeschaut..meine LG BD Brenner können maximal bis 16 fache Geschwindigkeit brennen....vorausgesetzt man hat 16 fache Rohlinge da ..habe bisher nur 4fache Geschwindigkeit gebrannt

:rolleyes:
 
Zuletzt bearbeitet:
Necareor schrieb:
Nein, für UHD mit 60Hz benötigst du HDMI 2.0 oder DisplayPort 1.2, ob das auch noch für HFR und HDR reicht, weiß ich nicht. Aber ne GTX260 kann es auf jeden Fall nicht...

Und ein TPM Chip was zumindest von MS bereits bestätigt wurde.
 
Zuletzt bearbeitet:
Pry_T800 schrieb:
Warum soll 3D unnötig sein, welchen Sinn macht es einen neuen Standard zu kreieren und nicht gleich 3D mit einfließen zu lassen, nur um den neuen Standard dann in 1- 3 Jahren wieder zu ändern?
Finde es schade, dass kein 3D mit am start ist, würde mich nämlich freuen einen Film, wie "Der Hobbit" in UHD+HFR+HDR+3D+ Dolby Atmos in meinem Heimkino zu sehen :D

Die Frage wäre jetzt noch, ob dann die neuen Features auch auf einen 1080p 3D Film angewendet werden, quasi ob es dann auch 1080p Filme mit HFR und HDR gibt?
Cu der Pry

Ja doch ;)
Dolby Atmos und AURO 3D bekommt Konkurrenz:

DTS%20Logo%202.jpg

Ende des Jahres gibts für einige neue Geräte Softwareupdates auf:

3D Sound mit dts: X -> 3D Sound mit DTS X
siehe auch:


Onkyo TX-NR747: Dolby Atmos, DTS:X und Ultra HD

Onkyo und Pioneer Corporation haben zwei neue AV-Receiver vorgestellt. Die Modelle TX-NR646 und TX-NR747 unterstützen die 3D-Surround-Formate Dolby Atmos und DTS:X. Zudem bieten sie eine Unterstützung für Ultra HD. An sich sind die beiden Geräte sehr ähnlich aufgebaut und bieten jeweils dieselben Anschlüsse. Preislich unterscheiden sie sich aber schon deutlicher.

Beide AV-Receiver sind für Ultra HD geeignet

Sowohl der TX-NR747 als auch der TX-NR646 ist mit acht HDMI-2.0a-Eingängen, zwei HDMI-Ausgängen und HDCP 2.2 ausgestattet. Alle Anschlüsse sind 4K/60Hz-kompatibel und damit für Ultra-HD-Blu-ray-Player geeignet. Zudem werden HDR (High Dynamic Range) und das Kinoformat 21:9 unterstützt. Aber auch 7.1.4-Kanäle sind kein Problem...

...
Nun kommt mit DTS:X ein dritter Player ins Spiel. Es handelt sich ebenfalls um ein objektbasiertes Surround-Sound-Format, das heißt, ohne eindeutiges Mehrkanal-Layout, wie bisher üblich. Es ist somit kein festgelegtes 5.1- oder 7.1.-Setup mehr nötig. Vielmehr passt der AV-Receiver die Position der Objekte im laufenden Betrieb bei der Ausgabe in entsprechenden Lautsprechern individuell an.
...

PS.

Und das "Gute" an UHD ist,
jedes einzelne Gerät in der Wiedergabekette, also vom Abspielgerät bis zum Bildwiedergabegerät, benötigt den Ultra HD-Kopierschutz HDCP 2.2 (hardwarebasierend), über das bis dato kaum ein Gerät verfügt (außer der seit 2014 erhältliche AVR Onkyo TX-NR636 u. Onkyo TX-NR737).
 
Zuletzt bearbeitet:
serval schrieb:
Wurde die Frage nach der Hardwarekompatibilität schon beantwortet, werden PS3 und PS4 und PC-BluRay-Laufwerke den neuen Standard durch ein Software-Update abspielen können?
Nein, funktioniert nicht. Sowohl PS3 als auch PS4 sind ohne HDMI 2.0; ein Update auf HDMI 2.0 ist rein über Software nicht möglich, dazu müssen Chips getauscht werden.
Dazu kommt dass derzeit keine Konsole H.265 über die GPU dekodieren kann, und deren CPUs alleine für 4k + HFR zu leistungsschwach sind.
 
[F]L4SH schrieb:
*hust* Rechtfertigung für Raubkopien. Das beste an den 6-8tb Platten ist ja, dass die Filme dafür so schön günstig sind. 0€ - unschlagbar. Oder hast du eine geheime Quelle gefunden, bei der du vollkommen legal neue Filme in guter Qualität als Datei für eine Festplatte bekommen kannst?
Und erzähl mir nichts von BluRay Rips (die an sich auch wieder illegal sind), weil du ja klar gemacht hast, keine BluRays zu kaufen. Also wo kommen die Filme her?

*hust* wir haben 2015... http://video-download.mediamarkt.de/help.aspx?page=4 und es gibt noch einige andere angebote dieser art.

ich spreche übrigens das thema 4k an damit meine ich unter anderem handyvideos , kamera videos (gopro), youtube videos uvm.
außerdem sind soweit ich informiert bin blu ray rips legal, da sie eine sicherungskopie darstellen, bin da jetzt aber auch nicht so firm in dem thema. mir ging es hauptsächlich darum viel speicherplatz auf kleinem raum zu haben, anstatt ein riesen regal voller blurays.

von mir persönlich war hier zu keiner zeit die rede, ich hab amazon prime oder ich geh ins kino wenn ich qualität haben möchte, aber dazu muss erstmal ein qualitäts film vorhanden sein und die sind doch rar gesät.
 
WinnieW2 schrieb:
Nein, funktioniert nicht. Sowohl PS3 als auch PS4 sind ohne HDMI 2.0; ein Update auf HDMI 2.0 ist rein über Software nicht möglich, dazu müssen Chips getauscht werden.
Dazu kommt dass derzeit keine Konsole H.265 über die GPU dekodieren kann, und deren CPUs alleine für 4k + HFR zu leistungsschwach sind.

was für nen Laser haben dann die neuen BD Laufwerke dann..auch Blau oder gibts dann noch was anderes ?

weil .. wenn die wirklich 3 Schichten haben sollte der Datenträger..dann müsste die Abtastlaserdiode ja noch feiner sein
 
Zuletzt bearbeitet:
"...auf 66 und 100 GB erweitert"

ist doch ein schlechter Witz... in 2 Jahren kommen se dann wieder mit 4k und 3D ums Eck und verkaufen den Leuten wieder alles neu. Gut das ich seit Jahren nix mehr drehendes (außer Lüfter und HDD's) in meinen Computern und Abspielgeräten habe. Die Scheiben sollen endlich aussterben...
 
Ich prognostizier mal, dass diese UHD-BluRay ein großer Flopp wird. Wenn man sich die Zahlen des Bundesverbandes für Visuelle Medien anschaut, dann kommen immer noch auf eine verkaufte BluRay knapp 3 verkaufte DVDs.
Somit hat es die BluRay nach knapp 10 Jahren nicht geschafft mehr als ~30% Marktanteil zu bekommen.
Der UHD-BluRay progostiziere ich eine kurze Unterstütztungszeit durch die großen Filmstudios. Diese werden dann bei DVD und BluRay (der alten) bleiben und die Distribution via VoD forcieren.
Und das wichtige ist, dass man die Masse der User betrachten muss, und nicht die vereinzelten Early-Adopter, die sich sofort immer das Neueste kaufen.
Die UHD-BluRay ist dann auch das letzte physikalische Medium für den Vertrieb von Filmen.
Zumindest ist das meine persönliche Einschätzung.
 
Zuletzt bearbeitet:
Brötchenesser schrieb:
was für nen Laser haben dann die neuen BD Laufwerke dann..auch Blau oder gibts dann noch was anderes ?

weil .. wenn die wirklich 3 Schichten haben sollte der Datenträger..dann müsste die Abtastlaserdiode ja noch feiner sein
Die ursprüngliche Blu-ray Spezifikation sieht bereits 4 Datenschichten vor. Allerdings sind die meisten Laufwerke per Firmware nur auf 2 Datenschichten ausgelegt. (Dazu kommt dass die neuen Scheiben 33 Gbyte pro Schicht haben, während die ursprüngliche Spezifikation 25 Gbyte pro Schicht vorsah.)
Ein neuer Laser ist dennoch nicht notwendig. Es gab bei CD-Brennern später auch 800 u. 900 Mbyte-Rohlinge für die kein neuer Laser notwendig war.
Mittels Firmwareupdate könnte die Fähigkeit 66 und 100 Gbyte Blu-ray Scheiben zu lesen bei vorhandenen Laufwerken nachgerüstet werden, aber welcher Hersteller wird das machen?
 
Zuletzt bearbeitet:
WinnieW2 schrieb:
Die ursprüngliche Blu-ray Spezifikation sieht bereits 4 Datenschichten vor. Allerdings sind die meisten Laufwerke per Firmware nur auf 2 Datenschichten ausgelegt.
Mittels Firmwareupdate könnte die Fähigkeit 66 und 100 Gbyte Blu-ray Scheiben zu lesen bei vorhandenen Laufwerken nachgerüstet werden, aber welcher Hersteller wird das machen?

ab und zu gibs ja Updates für BD Brenner..aber ob die damit klarkommen bei alten Geräten glaube ich auch nicht...denke mal da muss man sich dann was neues kaufen
 
WinnieW2 schrieb:
Ach! Du willst 4k Blu-rays selber brennen? Das lohnt sich doch alleine bei den Preisen für die 100 Gbyte Rohlinge gar nicht.

ja ich schreibe wegen Brenner....bei reinen Abspielgeräten weiss ich ja auch nicht wie so der Laser sonst werkelt..aber nicht nur Filme..meinte reine Daten BD dann brennen
 
http://4kfilme.de/ultra-hd-blu-ray-spezifikationen-verabschiedet-offizielles-logo/

Hier steht bisschen mehr drin als hier in den News, z.B.

"Digital Bridge – Digitale Kopien: Das Features was am meisten Überrascht, ermöglicht es dem Käufer einer Ultra HD Blu-ray legale Kopien für seine mobilen Endgeräte direkt von der Disc oder einem externen Server zu erstellen. Womöglich wird man sein Smartphone oder Tablet mit dem Ultra HD Blu-ray Player verbinden müssen (z.B. über WiFi) um die niedriger aufgelöste Version der Blu-ray zu übertragen. Wie dieses Feature genau ausgearbeitet wird, ist aber noch nicht bekannt."
 
Intenso84 schrieb:
http://4kfilme.de/ultra-hd-blu-ray-spezifikationen-verabschiedet-offizielles-logo/

Hier steht bisschen mehr drin als hier in den News, z.B.

"Digital Bridge – Digitale Kopien: Das Features was am meisten Überrascht, ermöglicht es dem Käufer einer Ultra HD Blu-ray legale Kopien für seine mobilen Endgeräte direkt von der Disc oder einem externen Server zu erstellen. Womöglich wird man sein Smartphone oder Tablet mit dem Ultra HD Blu-ray Player verbinden müssen (z.B. über WiFi) um die niedriger aufgelöste Version der Blu-ray zu übertragen. Wie dieses Feature genau ausgearbeitet wird, ist aber noch nicht bekannt."

also muss man erstmal abwarten..alles andere ist sonst reine Vermutung wie das alles funktionieren tut
 
Luxuspur schrieb:
Sry aber ich spreche von nem HTPC der ursprünglichen Definition, nicht diese MediaPC Böxchen wie sie heutiger Sprachgebrauch sind! Gewaltiger Unterschied!

Okay, wie kann ich mir dann einen HTPC in deinem Sinne vorstellen?

Brötchenesser schrieb:
wenn der Preis nicht zu hoch wäre..wäre das für mich ja hier interessant..aber keine Ahnung ob man die auch in einen normalen PC einbauen kann..weil da steht für Server ?

Um ehrlich zu sein ich hab die Dinger bisher nur benutzt um Datenbanken automatisiert zu sichern, dann macht ein autoloader auch spass ;) Wüsste aber auf Anhieb nicht was dagegen sprechen würde sie für "consumer"-Zwecke einzusetzen Nachforschungen in der Richtung muss ich aber dir überlassen. Vielleicht sind die Laufwerke an sich einfach zu teuer. :stacheln:
 
Zuletzt bearbeitet:
Andregee schrieb:
Wenn man keine Ahnung.....


Muss ich jetzt formeln der Augauflösung in Bogenminuten bemühen oder reichen ein paar Übersichten aus

Nr 1

http://carltonbale.com/1080p-does-matter/

Mindestabstand um von 720p 10Fuss= 304cm

Eigentlich wollte ich mir die Antwort auf diesen Trollpost sparen, aber dann viel mir auf, dass du nicht mal die Grafik in deiner Quelle verstanden hast. Die "10 Fuß"-Marke ist die ab der man beginnt von 1080p zu profitieren und nicht die für 720p und die "7 Fuß"-Marke ist die ab der man beginnt von 4k zu profitieren und das alles wohlgemerkt bei 100% Sehstärke, ich habe aktuell zwischen 120% und 140% laut letztem Test und ich weiß das ich früher da noch deutlich drüber lag, es gibt also auch Menschen, die noch viel ehr davon profitieren. Diese Diskussion ist so sinnlos, solange nicht jemand völlig absurde Zahlen nennt könnt ihr nicht wissen ob er die Wahrheit sagt und einen Unterschied sieht oder ob er es sich einbildet, bis ihr es getestet habt ;), also lasst es doch einfach.
Ich habe zum beispiel auf meinem alten kleinen 42" FHD die 1-Pixel-Streifen eines Schwarz-Weiß-Testbildes vor 5 Jahren noch aus über 3m erkannt, erst ab 4m begann es zu einer grauen Fläche zu verschwimmen. Dazu kommt noch, dass es jede Menge Alaising-Artefakte gibt, die eine höhere Auflösung (selbst wenn man eigentlich nicht mehr 2 benachbarte Punkte unterscheiden kann) reduziert, so dass man im Zweifel beim richtigen Bild doch einen Unterschied sieht.

@pmkrefeld

Eigentlich sind deine Aussagen sehr fundiert, aber irgendwie passts beim Thema HDR nicht so ganz

pmkrefeld schrieb:
Abgesehen davon ist wie gesagt auch Dynamikreduziertes HDR ohne große Abstriche jetzt schon möglich und wird oft eingesetzt ohne das es so genannt wird. Sollten einem die Farben ausgehen wäre es die bessere Lösung in 10 statt 8 bit aufzunehmen.

Erstens sind 10 bit verglichen mit 8 bit HDR, HDR ist praktisch nicht mehr als mehr Bits zu nehmen inkl. der Fähigkeit die Helligkeitsabstufungen auch noch unterscheiden zu können. DSLRs nehmen heute meist mit 14 Bit auf und diese sind auch wirklich da. Mit Magic-Lantern kann man bei Canon zum Beispiel auch RAW-Videos machen. Filmkameras wie Red Dragon oder auch Blackmagic können das auch, gerade bei letzterer bin ich mir mit dem RAW-Video sicher.

|QUOTE=pmkrefeld]Hinzu kommt die Frage wie viele Menschen und im welchen Maße HDR "sehen" (irl versteht sich) hier geht man nämlich das Risiko ein ungewollt ein unrealistisch anmutendes Bild zu schaffen (kann man bei vielen HDR Bildern beobachten)[/QUOTE]

Was du meinst ist Tone-Mapping oder ein anderes Konvertierungsverfahren von HDR in ein LDR-Bilder (und ja da gibt es jede Menge unfassbar schlechte), das wirkt dann unrealistisch wenn man es übertreibt und zu hohe Mikrokontraste zieht oder den gesamt Range zu weit wählt. Das menschliche Auge kann aber einen Kontrast von 1 zu 100.000 erfassen da wäre man mit 17 Bit auf der sicheren Seite. Bei HDR-Displays geht es nicht darum per Tone-Mapping ein Bild anzuzeigen sondern diesen Kontrast wirklich darzustellen, das würde dann nicht unecht wirken sondern wie ein Blick aus dem Fenster.

Außerdem bin ich bei der Haltung zu 3D nicht bei dir, es stimmt zwar alles was du an Fakten nennst, aber für mich ist es trotzdem ein Gewinn an Bildqualität, wenn es gut gemacht ist (der Hobbit@Bildqualität oder RE4-Afterlive@3D-Effekt nur um mal einige zu nennen oder beim Gaming bei Farcry 4 oder TR schaut das schon sehr nett aus). Diese Meinung muss man nicht mit mir Teilen, das ändert aber nichts daran das es einige Leute gibt, die es gut finden. Und deine Verbesserungswünsche hätte ich natürlich auch gerne, aber vor allem mit dem Lichtfeld wird es noch eine Ecke dauern :). Und ich habe auch schon viele Techniken ausprobiert, davon fand ich einige echt super, Autosteroskopisch mit Linsensystem, Eyetracking, Fingertracking vom FHI, war so ein Messe-Demo-Gerät und wie Holodeck in klein oder eine Cave mit Head-Tracking, da konnte man um die Dinge herum gehen, die Immersion war Spitze und dazu mein Philips-3D-TV bei dem gefallen mir bei oben genannten Sachen auch sehr gut.

Also entspannt euch mal bei der Diskussion, gerade bei "was gefällt einem" gibt es keinen richtigen Standpunkt. Ich hätte 3D 4K HFR HDR gerne gesehen :).
 
ix.tank schrieb:

Ich meinte eigentlich dass die Videos auch in 10Bit an den Man geliefert werden sollten. Fast jedes gescheite Heimkino-gerät rechnet es so oder so später auf 10 bit hoch. ^^
Soweit ich weiß ist die Speicherung der HDR Daten aber schon etwas komplizierter als die Bittiefe zu steigern, oder nicht?

Nochmal zu 3D, ich hatte immer den Eindruck (egal wie gut/teuer das setup war) dass man 3D auf Kosten der Bildqualität bekommt, entweder ist es ghosting (Brillenproblem) oder der immense Aufwand und reduzierte Auflösung (Autostereoskopie) in allen Fällen aber schlechtere Bildschärfe. Zu dem sehe ich keinen Nutzen in 3D, selbst bei Streifen wie Avatar war es nur ein Gimmick.
 
Soweit ich weiß ist die Speicherung der HDR Daten aber schon etwas komplizierter als die Bittiefe zu steigern, oder nicht?

Nein es ist tatsächlich genau so einfach. Die Aufzeichnung von HDR dafür komplizierter, die Sensoren müssen die Menge der Abstufungen auch präzise aufnehmen können.

entweder ist es ghosting (Brillenproblem)

Naja also a) okay es gibt Ghosting aber bei meinem Fernseher ist es quasi nicht vorhanden, ich habe es auf jeden Fall noch nie störend wahrgenommen und b) gibt es ja noch Polfilterbrillen damit kannst du auf einem 4K-TV einen HD Film ganz ohne Verluste schauen. Und nein du hast damit in diesen beiden Fällen keine schlechtere Bildschärfe.

Jetzt 2 Dinge als Beispiel die ich definitiv beobachten konnte (bei mir, das muss also nicht bei jedem klappen, denn das räumliche Sehen ist von Person zu Person deutlich unterschiedlich, letztens erst beim Augenarzt festgestellt).

1. Mir kommt ein 3D-HD Bild schärfer vor als ein 2D-HD Bild mögliche Erklärung die doppelte Menge an Informationen geht im Gehirn ein und ich assoziere wahrscheinlich auch plastischer mit schärfer (das muss bei dir nicht so sein).

2. Hatte ich ein interessantes Erlebnis, NFS-HP 2010 bin ich problemlos mit über 300km/h am Limit gefahren in 2D. Dann kam der 3D-Fernseher und ich wollte es unbedingt testen, wird bestimmt toll dachte ich. Die Realität war aber, ab etwas über 200km/h kam ich nicht mehr mit den Informationen klar und landete permanent vor einem Baum und nein es lag nicht am höheren Input-Lag oder Grafikfehlern ich hatte wirklich das Gefühl "das ist zuviel, damit komm ich nicht klar, Ergebnis immer wieder sinnlose falsche Entscheidung, rechts statt links, Kurve zu eng oder zu weit genommen, einfach aufgefahren ohne der Versuch auszuweichen, ohne Grund in ein Auto reingezogen etc.".

Was ich damit deutlich machen will 3D wirkt auf Menschen extrem unterschiedlich und die Immersion ist es damit auch, für mich war es immer Toll und ich bin seit 2000 oder so mit den ersten Shutter-Brillen zur GeForce immer dabei gewesen alles auszuprobieren und seit dem das Problem mit dem flimmernden Monitoren gelöst ist macht es mir eigentlich Spaß. Und inzwischen sind die von dir genannten Problem bei guten TVs eigentlich obsolet.

Fun-Fact am Rande, ich habe mir mal eine Film komplett mit Anaglyphenbrille angeschaut, danach konnte ich ein Auge jeweils schließen und habe alles in Rot oder Cyan gesehen, da das Gehirn sich angepasst hatte, beide Augen offen war alles normal. Es hat ungefähr eine halbe Stunde gedauert, bis der Effekt ganz weg war :).
 
Zurück
Oben