News Samsung will Ultra-HD-Inhalte auf HDDs verkaufen

Das is so lächerlich...
Als wir die DVD hatten, haben sie auf was gesetzt? MPEG2
Als wir die BluRay hatten, haben sie auf was gesetzt? VC1

Fazit: Einfach mal auf einen anständigen Codec setzen und man kann ein Medium überspringen. 1080p mit 2 Tonspuren passt gut auf eine DVD9. Sollte das nicht reichen, ginge auch doppelseitig. Laufwerke mit beidseitigen Lasern würden auch nix kosten. Damit presst man bis zu 18Gig auf eine DVD. Bei BluRay wird's noch viel krasser. h265 wird auch noch mehr rausholen.

Mit 4K steigt der Bedarf eines Filmes auf ca. 40-50GB. Das ginge problemlos in h264 auf eine DL-BluRay. :freak:

MfG, Thomas
 
@WinnieW2
Unterschiedliche Auffassungen von "verlustfrei". Für mich ist die Blu-Ray die Messlatte und nicht das Master. Die dort noch vorhandenen Bildinformationen kann auf üblichem Equipment kein gewöhnlicher Mensch vom Master unterscheiden - technischer Verlust hin oder her.

Irgendwo muss ich ja den Schnitt ziehen, sonst kann ich auch direkt bei der Kamera anfangen und die Aufnahme an sich bemängeln.
 
1080p mit 2 Tonspuren passt gut auf eine DVD9.

Wer beurteilt das? Du? Bei ner 32Zoll Glotze mag das hinhauen, bei nem Beamer aber weniger.

Unterschiedliche Auffassungen von "verlustfrei". Für mich ist die Blu-Ray die Messlatte und nicht das Master. Die dort noch vorhandenen Bildinformationen kann auf üblichem Equipment kein gewöhnlicher Mensch vom Master unterscheiden - technischer Verlust hin oder her.
Kleiner Tipp: Einfach das schreiben was man meint.

Technisch gesehen wurde aber nunmal Blödsinn geschrieben hier. Sollen die anderen raten was du meinst?

Das is so lächerlich...
Als wir die DVD hatten, haben sie auf was gesetzt? MPEG2
Als wir die BluRay hatten, haben sie auf was gesetzt? VC1
Auf der Bluray kann auf VC1,MPEG2, und 4 gesetzt werden. Was genau ist dadran nun lächerlich? Die Hardware wird immer leistungsfähiger, daher kann man zum einen die Kapazität eine Mediums erhöhen, aber auch bessere Codecs entwickeln und verwenden.

Ist mir jetzt bisschen Rätselhaft was da dran genau lächerlich ist.

Einfach mal auf einen anständigen Codec setzen und man kann ein Medium überspringen
Und wo wurde nicht auf einen anständigen Codec gesetzt?

Mit 4K steigt der Bedarf eines Filmes auf ca. 40-50GB. Das ginge problemlos in h264 auf eine DL-BluRay.
Ansichtssache. Was ist mit 3D? Was ist mit Leuten mit hochwertigem Equipment? Dann kann man sich teure Geräte auch gleich sparen, was sollen die Leute damit wenn es kein Videomaterial gibt um die Technik auszureizen?

Aktuelle HDDs sind doch eh zu groß um nur einen Film drauf zu speichern. Wenn macht das ganze nur bei Serien Sinn. USB Sticks wären zumal auch völlig unempfindlich gegen Kratzer und Runterfallen usw.
 
Zuletzt bearbeitet:
l_uk_e schrieb:
Naja aber ab spielbar von jedem Bd player. Es ist dann eben die Frage ob du die Samsung hdds auch einem Panasonic TV nutzen kannst. Verstehst du nun?
Also ohne es jetzt zu sehr OT werden zu lassen:

DRM in der Filmindustrie existiert seit locker 20 Jahren und einen Film heute abzulehnen, weil der Datenträger DRM drauf hat, ist Quatsch!

Der von dir beschriebene Umstand existiert heute schon. Viele drei Jahre und älter Blu-ray Player spielen aktuelle Filme nur mit nem Firmware Update ab. Hat man kein Internet: Pech gehabt! Bietet der Hersteller kein Update an: Pech gehabt!

Also entwerder bist du ein Mann oder eine Frau mit Prinzipien und sagst "Kein DRM, egal ob es funktioniert oder nicht - ich bleibe bei VHS und Laserdisc" oder du siehst ein, wie sinnlos solche Sätze sind.
 
Ich dachte hier geht es um ein Medium, das für den Massenmarkt bestimmt ist? Wann waren hier zuletzt 1:1 Abzüge der Originalaufnahme üblich? Zumal diese, wie bereits angedeutet, technisch ebenfalls nicht verlustfrei ist. Damit wäre das Wort verlustfrei an sich bereits unangebracht und unkomprimiert vermutlich die bessere Wahl. Ich bin aber auch kein Linguist. Zumal das wirklich am Thema vorbeigeht.

Ich denke eine kompakte Festplatte ist durchaus ein geeignetes Transportmittel für UHD Medien. Der Platz und die Übertragungsraten dürften ausreichen und man könnte wahrscheinlich auch einen attraktiven Preisbereich erreich.
 
Ex0r schrieb:
DRM? Nein Danke...
Zurzeit könnte es jedoch sogar noch gut ohne DRM funktionieren, da kaum jemand genug Bandbreite für eine vernünftige Down- und Uploadgeschwindigkeit hat. 50 GB/h für die 4k Auflösung ist schon eine ordentliche Zahl. Wenn ich richtig liege, braucht es alleine fürs Streaming eine 100 - 150 Mbit Leitung.
 
Ich halte da nix von. Ich sags ja immer wieder, die sollen erstmal bestehende Technologien gescheit ausbauen und an der Qualität anstatt Quantität arbeiten bevor man etwas Neues auf den Markt wirft.

Die Blu-ray ist erst seit ganz wenigen Jahren der DVD überhaupt mal dominant geworden, so langsam aber sicher hat jeder mal endlich nen HD-TV zuhause und das TV schauen in HD klappt bei Jahreskosten von 60€ zumindest für die privaten und öffentlich-rechtlichen Sender auch ganz gut, warum also jetzt - wo das ganze mal vernünftig den Markt durchdrungen hat schon wieder was Neues machen?

Hauptsache wir als Kunden müssen immer und immer wieder konsumieren und die Firmen scheffeln erneut Milliarden für Dinge, denen sie uns vorgeben, dass wir sie brauchen. Ich liebe Technik, aber man kann es auch übertreiben.
 
G-Power schrieb:
Das ist egal da du ja Pufferst und die ablage im Puffer ist nach Ansicht von diesem Rechts Dingsbums ja schon eine Gewerbsmäßige Urheberrechtsverletzung.
Wenn ein technisches Verfahren die Pufferung erfordert um dessen ordnungsgemäße Funktion sicherzustellen dann ist das Zwischenspeichern keine Urheberrechtsverletzung.
Dafür gibt es extra den §44a im UrhG.
Ergänzung ()

Hypeo schrieb:
Zurzeit könnte es jedoch sogar noch gut ohne DRM funktionieren
Spielt für die Filmstudios keine Rolle, praktisch alle von denen wollen den Kopierschutz, egal ob da 100 oder 100.000 Leute Filme von denen sehen wollen.
Denkweise der Filmstudios: Es reicht bereits wenn einer von den Leuten einen Film irgendwo hochlädt und für alle Nutzer kostenlos bereitstellt um Geld zu verlieren.
Ergänzung ()

CloakingDevice schrieb:
@WinnieW2
Unterschiedliche Auffassungen von "verlustfrei". Für mich ist die Blu-Ray die Messlatte und nicht das Master.
Sicherlich stellt sich die Frage ab welchem Punkt man die Produktionskette betrachtet. Kein Verlust ab dem Medium welches für Endkunden zugänglich ist, oder bereits vorher?
Technisch gesehen liegt das Video allerdings in einem Format auf der Scheibe welches nur durch Einschränkungen der Informationsmenge auf diesen Datenträger passt.
Ok, das klingt jetzt möglicherweise zu akademisch. Praktisch gibt es noch den Unterschied zwischen digital verlustfrei und visuell verlustfrei.
Visuell verlustfrei bedeutet dass kein Mensch den Unterschied sehen kann wenn bestimmte marginale Details aus dem Bild entfernt wurden.
Technisch gesehen kommt allerdings noch dazu dass kein Wiedergabegerät (Flachbild-TV oder Beamer) das Video selber verlustfrei darstellen kann.
Eine verlustfreie Videodarstellung ist in der Realität nicht möglich u. im Prinzip ein Marketinggag.
 
Zuletzt bearbeitet:
Findus schrieb:
man möchte aber wenn schon physikalischer Datenträger bestmögliche Qualität - was nimmt UHD da? ich setze mal als Schuss in blaue ~0,5-1TB für nen 2h Streifen, vielleicht?

Also für UHD, also 16-fache FullHD Auflösung würde ich jetzt mit optimierten Codec bei sehr guter Qualität mit 250 GB rechnen, mehr ist überdimensioniert. Eine Reduzierung auf 150 GB ohne sichtbarer Qualitätsverlust halte ich problemlos für machbar. darunter wirds aber kritisch.
 
BOBderBAGGER schrieb:
der da wäre h265 ? Überraschung! eben darauf setzten die doch
Ja, dann müsste man aber nicht zwangsläufig auf HDDs setzen...

BOBderBAGGER schrieb:
in welcher bitrate ? HD Audio ? Extras ? die anderen Tonspuren ?
In ausreichender Bitrate... Viele hier haben absolut null Ahnung von Video-Encodierung. Bitrate alleine is nicht alles. Es kommt auch drauf an, wie man die Settings wählt beim Encodieren. Gerade Encodieren auf eine bestimmte Dateigröße hin wird zB durch 2 Pass Encoding verbessert, da der Encoder im 1ten Durchlauf nicht weiß wie komplex die nächsten Szenen sind und wieviel Ressourcen er somit auf die jetzige verbrauchen kann. Qualitativ hochwertiges und platzsparendes encodieren braucht außerdem signifikant mehr Rechenleistung. Doch in Zeiten wo Leute in 1-Klick Video-Konvertern nur noch die Bitrate selektieren und "Umwandeln" drücken, erwarte ich mir eh nicht viel...
2 DTS-Tonspuren hatte ich da schon miteingerechnet. Allerdings verfügen die wenigsten über ein Home-Entertainment System, das in der Lage ist, diverses HD Audio auch tatsächlich wiederzugeben, weshalb ich gerne mal behaupte, dass das überbewertet ist.
Ilsan schrieb:
Wer beurteilt das? Du? Bei ner 32Zoll Glotze mag das hinhauen, bei nem Beamer aber weniger.
Ich hab einen BenQ W1070... Und, nein: ein 2-Stunden+ Streifen geht sich auf einer DVD9 sicherlich nicht aus. Aber da wären wir auch wieder bei doppelseitig...
Ilsan schrieb:
Auf der Bluray kann auf VC1,MPEG2, und 4 gesetzt werden. Was genau ist dadran nun lächerlich? Die Hardware wird immer leistungsfähiger, daher kann man zum einen die Kapazität eine Mediums erhöhen, aber auch bessere Codecs entwickeln und verwenden.
Auf der BluRay KANN man wenigstens auf h264 setzen. Fakt is aber, dass gerade mal bei der Hälfte der Discs der Fall ist -und das obwohl h264 effizienter is. Afaik hat das aber auch mit Lizenzgebühren zu tun, für die die Studios dann tlw. wieder zu geizig sind.
Ilsan schrieb:
Ist mir jetzt bisschen Rätselhaft was da dran genau lächerlich ist.
Dass wir schon wieder die Kapazität der Medien erhöhen, statt ein altes Medium vollständig auszureizen. Das is wie Downsizing und dann mit einem Vergaser fahren...
Doppelseitige Dual-Layer-DVD oder BDXL = 100GB. Da geht 4k in 3D und genug HD-Tonspuren drauf.
Ilsan schrieb:
Und wo wurde nicht auf einen anständigen Codec gesetzt?
DVDs, VC1-BluRays (oder gar MPEG2-BluRays),... zum Bleistift. DU als Käufer, bist doch dann das Opfer wenn Du Dir eine BD kaufst, Dir tolle Quali erwartest und dann bekommst Material, das in einem anderen Codec spürbar besser ausgesehen hätte.
Ilsan schrieb:
Ansichtssache. Was ist mit 3D? Was ist mit Leuten mit hochwertigem Equipment? Dann kann man sich teure Geräte auch gleich sparen, was sollen die Leute damit wenn es kein Videomaterial gibt um die Technik auszureizen?
Darum geht's hier eigentlich garnicht. Vielmehr darum:
Das Medium is vorhanden (BDXL oder Doppelseitige Dual-Layer DVD)
Der Codec is vorhanden (h264/h265, Dolby TrueHD, DTS-HD,...)
Nur jetzt kommt man wieder mit einem neuen Medium daher. Unter dem Deckmantel bessere Qualität zu bringen kommt dann wieder eine neue Form von Kopierschutz. Wie der aussieht, kann ich mir jetzt schon ausmalen... Verschlüsseltes Material, das im Fernseher direkt entschlüsselt wird -mit einem Schlüssel der erst per Internet vom Anbieter nach Legitimitätsprüfung runtergeladen wird. Nachdem uns die Content-Industrie mit HDMI Länge mal Breite verarscht hat, jetzt gecheckt hat, dass es nix nützt, da der Kopierschutz bereits am Medium ausgehebelt wurde, kommt jetzt der logische nächste Schritt -bejubelt vom Volk.
Ilsan schrieb:
Aktuelle HDDs sind doch eh zu groß um nur einen Film drauf zu speichern. Wenn macht das ganze nur bei Serien Sinn. USB Sticks wären zumal auch völlig unempfindlich gegen Kratzer und Runterfallen usw.
Festplatten wären tatsächlich interessant für Serien. Da wäre es auf Grund der Datenmenge durchaus praktikabel HDDs zu verwenden. Allerdings nur wenn diese noch etwas im Preis fallen. Neben ihrem Preis haben sie ja noch weitere Nachteile: Empfindlichkeit, nicht pressbar wie optische Disks (müssten also erst mit den Daten gefüllt werden), Umweltverträglichkeit (irgendwann wird das Ding entsorgt...),... Wiederbeschreibbarkeit is nur ein Vorteil am Papier, denn der existiert nur, wenn man sie auch tatsächlich wiederbeschreibt, was wohl kaum der Fall ist, sofern man die Daten nicht vorher auf eine andere Platte spiegelt...

MFG, Thomas
 
Zuletzt bearbeitet:
Ich werde definitiv noch auf 8K warten! Sollte in 2 Jahren auf jedenfall möglich sein. Mit der HVD hat man dann gleich einen neuen Standard und auch ein Nachfolger des HDMI Ports wird es geben müssen mit min. 100 Gigabit, besser 150!
 
UHD streaming?

Und auf der anderen Seite kommen die Provider an, wollen die Flatrates abschaffen und jammern über den Traffic der irgendwie durch die Leitungen muss! :freak::kotz:


Das wird lustig......
 
CloakingDevice schrieb:
@Cool Master
Angenommen Flashspeicher wäre nicht zu teuer, dann wäre er immer noch zu knapp. Der wird aktuell für nahezu jedes computerartige Gerät benötigt, da verknappt man die Verfügbarkeit sicher nicht noch zusätzlich in dem man große Mengen für Massenmedien wie Filme abzweigt.

Glaub mir, wenn es so kommen würde wären ganz ganz schnell neue Fabriken da. Das würde sich kein Auftragsfertiger entgehen lassen.
 
Fabriken könnte man bauen ja, die entstehen aber auch nicht über Nacht. Dazu kommen die enormen Kosten. Und dort endet die Kette noch nicht: Man benötigt auch noch die passenden Rohstoffe für die Produktion in ausreichender Menge. Darüber hinaus müssen außerdem bereits neue Herstellungsanlagen gebaut werden um den wachsenden Bedarf anderer Märkte (z.B. Smartphones, Tablets, PCs etc.) zu decken. Die Firmen haben auch nicht unbegrenztes Investitionskapital. Ich denke du stellst dir das etwas zu einfach vor.
 
Darum geht's hier eigentlich garnicht. Vielmehr darum:
Das Medium is vorhanden (BDXL oder Doppelseitige Dual-Layer DVD)
Der Codec is vorhanden (h264/h265, Dolby TrueHD, DTS-HD,...)
Nur jetzt kommt man wieder mit einem neuen Medium daher.

öhm Sorry aber BDXL ist ein neues Medium, oder kann man die Scheiben mit den heutigen Bluray Playern abspielen? Es macht doch keinen Sinn normale Blurays zu nehmen mit h265, das kann eh kein Player abspielen weil die Signalverarbeitung damit nicht klarkommt. Also ist so oder so ein neues Gerät fällig, daher was spricht dagegen den Codec UND das Speichermedium gleichzeitig zu ändern? Selbst wenn du nur eines änderst ist die Kompatibilität schon nicht mehr gegeben. Es war ja sogar mal angedacht 4K auf normalen Blurays zu verbreiten, aber das kannste dann auch nicht mehr auf nem normalen Bluray Player abspielen. Welchen Mehrwert hat das ganze denn dann bitte sehr wenn man das Medium gleich lässt Auch kann nicht jeder DVD Player MPEG4 Content in HD abspielen, selbst wenn der Spaß auf einer DVD gespeichert ist.

DVDs, VC1-BluRays (oder gar MPEG2-BluRays),... zum Bleistift. DU als Käufer, bist doch dann das Opfer wenn Du Dir eine BD kaufst, Dir tolle Quali erwartest und dann bekommst Material, das in einem anderen Codec spürbar besser ausgesehen hätte
Ach komm. MPEG2 Blurays gibt eh kaum welche und dass du den Unterschied zwischen VC1 und MPEG4 mit dem Auge erkennen kannst halte ich auch für Nonsens. Und jetzt sag nicht "ich hab ne VC1 Bluray die sieht nicht so toll aus, und hab eine MPEG4 Bluray die sieht besser aus"

Hab auch schon gute und schlechte Qualität auf Bluray gesehen, Sowohl mit VC1, als auch mit MPEG4.

In ausreichender Bitrate... Viele hier haben absolut null Ahnung von Video-Encodierung. Bitrate alleine is nicht alles. Es kommt auch drauf an, wie man die Settings wählt beim Encodieren. Gerade Encodieren auf eine bestimmte Dateigröße hin wird zB durch 2 Pass Encoding verbessert, da der Encoder im 1ten Durchlauf nicht weiß wie komplex die nächsten Szenen sind und wieviel Ressourcen er somit auf die jetzige verbrauchen kann. Qualitativ hochwertiges und platzsparendes encodieren braucht außerdem signifikant mehr Rechenleistung. Doch in Zeiten wo Leute in 1-Klick Video-Konvertern nur noch die Bitrate selektieren und "Umwandeln" drücken, erwarte ich mir eh nicht viel...
Die Studios werden sicherlich keinen 1-Klick-Konverter für 14,95 vom MM benutzen. Und Settings hin oder her, damit kannste auch fehlende Bitrate nicht vollständig ausgleichen. Du glaubst doch nicht ersthaft dass die Filme auf Blurays nur 1-pass encodiert wurden?
 
Zuletzt bearbeitet:
@CloakingDevice

Und du stellst es dir zu komplex vor ;) Wenn eine Nachfrage da ist wied diese bedient, zur not werden die Unternehmen Kredite aufnehmen.
 
@HighTech-Freak bitte Informiere dich was wirklich an Speicherplatz benötigt wird. Du stellst hier wüste Vermutungen an ohne das auch nur ein Teil davon stimmen würde.

Inhalte Insbesondere Live Sendungen & Sport Übertragungen die in U-HD Produziert werden füllen teilweise SCHNELLER Festplatten als die Techniker sie wechseln können! Denn die Auflösung und die benötigte Bitrate sind nur 2 Technische Aspekte. Die FPS mit der Aufgezeichnet wird 24hz, 25hz, 30hz, 60hz 120hz, High Dynamic Range, Farbtiefe lassen die Datenmengen extrem explodieren.

Gehe hier jetzt NICHT von komprimierten h265 Videos aus. Denn das ist für die Private Speicherung oder HDTV Übertragung von Interesse aber NICHT für ein Endkunden Produkt das man ihm verkauft.

Denn das Endkundenprodukt das du kaufst soll und MUSS sich Qualitativ Unterscheiden. Mal abgesehen das U-HD mit ECHTEM U-HD Material das wirklich auch MEHR Bildinformationen beinhaltet, nicht einfach nur simpel hochskaliertes 1080er Material oder höher abgetastet (Remastered in 4k - ist zwar Verbesserung zur alten DVD/BD Version da mehr Informationen da sind, entfaltet sein Potenzial aber richtig erst wenn es Nativ ohne hochskalieren 1zu1 ausgegeben wird!) wurde, erst Sinn ab 80+ Zoll macht. Da Technisch gesehen echtes U-HD auf einem 30-80 Zoll TV Sinnfrei ist weil das Auge den Unterschied nicht wahrnehmen kann da die Pixel mit dem mehr an Informationen zu klein sind. Erst wenn das Bild groß genug ist sieht das Auge die zusätzlichen Informationen. Es ist wie mit der Digitalen Fotografie wo eine extrem hochwertige Kamera nur für Passbilder keinen Sinn macht eben weil ich die Details aufgrund der Größe nicht sehen kann da alles ineinander vermatscht.

Den Unterschied der von den meisten Leuten bei Mediamarkt & co wahrgenommen wird ist eben weil das HD-TV Programm EXTREM Daten-komprimiert ist, ebenso viele private Videos. Erst die BluRay (oder der hochwertige min CRF20 h264 BD-Rip davon) hat dann eine wirkliche bessere Qualität bzw. die Demo-BluRay im Media Markt eine nochmals höhere weil auf den verwendeten Übertragungsweg und die Dateigröße aufgrund der Kürze des Videos keine Rücksicht genommen werden muss.

Das Samsung nun die ECHTEN U-HD Inhalte deswegen auf HDD´s verkaufen will hat genau den von mir oben beschriebenen Hintergrund. Da die TV&Film Industrie erst NACH der Produktion der TV Geräte festgestellt hat was überhaupt Technisch neben der Auflösung nötigt ist für echtes U-HD.
Den TV Geräte Herstellern ist es egal sie wollen erstmal nur ihre TV Geräte verkaufen einfach weil sie sagen können kuck hier höhere Auflösung = mehr Pixel = besseres Bild aber sie sagen dir nicht das es DEIN Problem ist woher du das Quellmaterial bekommst für die Wiedergabe und erst recht sagen sie dir nicht das die meisten JETZT erhältlichen U-HD Geräte NICHT kompatibel mit dem zukünftigen ECHTEN U-HD Material sind! Seit mittlerweile fast 1 Jahr werden Geräte (TV, AVR, BD-Player) mit "4k" aka U-HD Stempel verkauft aber echtes 4k Meterial ist rar (und selbst da muss immer erläutert werden wie wurde es produziert!) abgesehen von diesen "Remastert in 4k" BD´s welche trotzdem in 1080 abgespielt werden...

Siehe dazu auch dieses Video bevor du mir versuchst zu Antworten:

http://www.youtube.com/watch?v=jI25vGfnfpQ
 
Zuletzt bearbeitet:
Ilsan schrieb:
öhm Sorry aber BDXL ist ein neues Medium, oder kann man die Scheiben mit den heutigen Bluray Playern abspielen? Es macht doch keinen Sinn normale Blurays zu nehmen mit h265, das kann eh kein Player abspielen weil die Signalverarbeitung damit nicht klarkommt. Also ist so oder so ein neues Gerät fällig, daher was spricht dagegen den Codec UND das Speichermedium gleichzeitig zu ändern? Selbst wenn du nur eines änderst ist die Kompatibilität schon nicht mehr gegeben. Es war ja sogar mal angedacht 4K auf normalen Blurays zu verbreiten, aber das kannste dann auch nicht mehr auf nem normalen Bluray Player abspielen. Welchen Mehrwert hat das ganze denn dann bitte sehr wenn man das Medium gleich lässt Auch kann nicht jeder DVD Player MPEG4 Content in HD abspielen, selbst wenn der Spaß auf einer DVD gespeichert ist.
Die Kompatibilität ist sowieso nicht gegeben -soviel steht fest- da spätestens bei der Bandbreite alte Geräte Probleme bekommen würden. Es geht mir nur darum nicht wieder wieder das Rad neu zu erfinden. Eine BDXL zB ist im Prinzip nur eine 4lagige BD. Die Technik ist daher bereits günstig zu haben und man muss nicht mehr wie zu BD-Zeiten eine subventionierte PS3 kaufen. Die Festplattenlösung erlaubt zwar billige Abspielgeräte allerdings zu hohen Kosten, was die Medien betrifft. Einen BD-Player mit 2 Lasern zu bauen wäre zB verhältnismäßig kostengünstig um eine 100GB fassende Datenscheibe zu ermöglichen. Für in h265 encodiertes Material in 4K bei derzeitigen 24-30FPS sollte das locker reichen ohne Kompromisse bei der Qualität einzugehen...
Ilsan schrieb:
Hab auch schon gute und schlechte Qualität auf Bluray gesehen, Sowohl mit VC1, als auch mit MPEG4.[...]Die Studios werden sicherlich keinen 1-Klick-Konverter für 14,95 vom MM benutzen. Und Settings hin oder her, damit kannste auch fehlende Bitrate nicht vollständig ausgleichen. Du glaubst doch nicht ersthaft dass die Filme auf Blurays nur 1-pass encodiert wurden?
Du gibst Dir irgendwo selbst die Antwort. Für die BD ist es für die Studios uninteressant ob die Qualität excellent oder nur ausreichend ist. In dem Moment, wo man sich die Disk ins Laufwerk legt, sind die Euros schon über die Theke gewandert. Man bekommt als zahlender Kunde nicht immer die Qualität, die man erwarten könnte... war bei CDs auch tlw. so.
Die Anspielung auf den 1 Klick Konverter hatte übrigens ganz andere Gründe. Die meisten Leute sehen die Bitrate bei Youtube oder sonstirgendwo bei einem (schlecht encodierten) Film, den sie sich aus dem Netz gezogen haben und glauben, dass man mehr Bitrate benötigen würde. Praktisch sind aber moderne Codecs wie h264 und h265 gerade auch auf weniger Bitrate hin optimiert. Nur damit man da keine nennenswerten Qualitätseinbußen hat, braucht es nicht selten viel mehr Zeit zum Encodieren. Nur bekommt man vernünftig encodierte Videos mit niedriger Bitrate kaum wo zu sehen, da die Studios nur auf BD liefern (und sich daher nicht drum scheren müssen, weil eh mehr als genug Speicherplatz da is) und privat kaum jemand hochwertig encodiert. Braucht halt doch das doppelte bis dreifache an Zeit/Rechenleistung... Ich hab's früher selber gemacht und Feintuning an den Settings diverser Encoder betrieben, weil ich wissen wollte, wieviel (bzw wie wenig) geht...

Gamefaq schrieb:
@HighTech-Freak bitte Informiere dich was wirklich an Speicherplatz benötigt wird. Du stellst hier wüste Vermutungen an ohne das auch nur ein Teil davon stimmen würde.
Vorab: Danke für das verlinkte Video! Sehr informativ! War gut zu sehen, dass doch noch jemand zwischen 4K und UHD unterscheidet...
B2T: Ich rede hier nicht von Post-Processing, Aufzeichnung oder remastering, sonderlich lediglich von dem Endprodukt, das an den Kunden geht. Und da gibt's bei weitem weniger Diskussionsbedarf. Ein UHD-Film hat per se mal die 4 fache Auflösung von HD. non3D-HD (effektiv 1920x~850 bei vielen Filmen) in h264 mit 2 DTS-Tonspuren braucht in Summe keine 20Mbit/s um gut auszusehen. Das sind 9GB pro Stunde. Für einen 2 Stunden Film rechnen wir jetzt mal 20GB der Einfachheit halber als Richtwert. Das sind unter gleichen Bedienungen etwa 80GB für UHD, bleiben noch 20GB Reserve. 3D geht darauf aber auch nur im SBS Verfahren. Für höhere FPS und/oder Full3D bräuchte man entsprechend mehr Speicherplatz... Fraglich ob man das über HDMI schieben kann... Das richtig krasse Datenmenge, die da pro Sekunde drüberwandert...
Gamefaq schrieb:
Denn die Auflösung und die benötigte Bitrate sind nur 2 Technische Aspekte. Die FPS mit der Aufgezeichnet wird 24hz, 25hz, 30hz, 60hz 120hz, High Dynamic Range, Farbtiefe lassen die Datenmengen extrem explodieren.
Das is schon klar. Allerdings sind gerade FPS etwas, das mir ein Dorn im Auge ist. Denn die pauschale Verwendung hoher FPS ist vor allem eins: sinnbefreit. Variable Frame-Raten sollten längst Standard sein, zumindest beim Abspielen. Bei der Aufzeichnung kommt man um die 120Hz dann eh nicht rum. Allerdings können das die Codecs das recht gut kompensieren. Standbilder brauchen kaum Speicherplatz.. Das größte Problem sehe ich bei der Farbtiefe, da das eine der Schwachstellen der Komprimierung ist. Farben werden gerne Verwaschen (dunkle Szenen oder siehe sanfte Gradienten wie Himmel). Wenn man da die Qualität hochdrehen will, bleibt meist nur der Weg über die Bitrate... in dem Fall gebe ich Dir vollkommen recht. Die Frage ist, ob dieser kaum sichtbare Unterschied eine (vermutlich) Vervielfachung des benötigten Speicherplatzes rechtfertigt.
Gamefaq schrieb:
Gehe hier jetzt NICHT von komprimierten h265 Videos aus. Denn das ist für die Private Speicherung oder HDTV Übertragung von Interesse aber NICHT für ein Endkunden Produkt das man ihm verkauft.
Ich gehe von hochwertig komprimierten h264 Videos aus, wie man sie uA auf BDs findet, wenn auch nicht auf allen...
Gamefaq schrieb:
Da Technisch gesehen echtes U-HD auf einem 30-80 Zoll TV Sinnfrei ist weil das Auge den Unterschied nicht wahrnehmen kann da die Pixel mit dem mehr an Informationen zu klein sind. Erst wenn das Bild groß genug ist sieht das Auge die zusätzlichen Informationen. Es ist wie mit der Digitalen Fotografie wo eine extrem hochwertige Kamera nur für Passbilder keinen Sinn macht eben weil ich die Details aufgrund der Größe nicht sehen kann da alles ineinander vermatscht.
Mit der Aussage wäre ich eher vorsichtig. Darauf wurde zwar im Video auch eingegangen, allerdings tlw. etwas widersprüchlich. Allerdings wurde auch ganz klar thematisiert, dass mehr wahrgenommen wird, als man bei FHD angenommen hat (ab ca. 17:30). Ich tippe das hier von einem Macbook Pro mit Retina Auflösung (2880x1800). Das Display ist grob gemessen etwa 33cm Breit und ich bin 80cm weg. Der Betrachtungswinkel ist daher 2*atan(33/2 / 80)= 23,3 Grad, d.h. ein Pixel des Displays entspricht 23,3 Grad / 2880 = 0,5'
Fazit: Es wirkt schlichtweg alles schärfer. Kein Pixelmatsch. Selbst hochskalierte Videos (was bei der Auflösung zwangsläufig nötig ist bei HD-Material), sehen besser aus als auf einem normalen HD-Display. Das liegt vermutlich daran dass das Auge das einzelne Pixel des Monitors nichtmehr als solches wahrnimmt, weshalb auch Fotobearbeitung darauf ein Traum ist...
Ob UHD sinnvoll ist, oder nicht, kommt vorallem auch auf den Abstand zum Monitor an... Bei 30" darf das Ding definitiv nicht weit weg stehen um von UHD zu profitieren.
Gamefaq schrieb:
Das Samsung nun die ECHTEN U-HD Inhalte deswegen auf HDD´s verkaufen will hat genau den von mir oben beschriebenen Hintergrund. Da die TV&Film Industrie erst NACH der Produktion der TV Geräte festgestellt hat was überhaupt Technisch neben der Auflösung nötigt ist für echtes U-HD.
Erweiterte Farbtiefe und erhöhte Frame-Rate sind ja erstmal optional -zumal es da wohl eh am Quellmaterial scheitert. Ergo reden wir derzeit über "einfaches HD mit 4 facher Auflösung".
Gamefaq schrieb:
Den TV Geräte Herstellern ist es egal sie wollen erstmal nur ihre TV Geräte verkaufen einfach weil sie sagen können kuck hier höhere Auflösung = mehr Pixel = besseres Bild aber sie sagen dir nicht das es DEIN Problem ist woher du das Quellmaterial bekommst für die Wiedergabe und erst recht sagen sie dir nicht das die meisten JETZT erhältlichen U-HD Geräte NICHT kompatibel mit dem zukünftigen ECHTEN U-HD Material sind!
Das Problem hatten wir eh auch schon mit HD. TV in HD kannst sowieso -immernoch- knicken, Streaming krankt oft an viel zu niedriger Bitrate/zu hoher Kompression, damit bleiben nur BDs mit vernünftiger Quali. Und die gibt's jetzt -bezogen auf die Verfügbarkeit von HD-TVs- noch nicht so lange zu vernünftigen Preisen. Sofern man also nicht Cineast/Enhusiast ist, macht man damit vorerst sowieso vor allem eins: UHD ignorieren. Wer tatsächlich jetzt schon einen UHD-TV kauft sollte besser genau wissen, warum er das tut... Schon alleine wegen nutzlosen HDCP-Revisionen, die alte Hardware nutzlose machen können, würde ich von davon abraten launch-customer zu sein. Dass die ersten UHD-Geräte späteres UHD-Material mit höheren FPS/Farbtiefen/... nicht abspielen können, davon würde ich sowieso ausgehen. Für das gibt's dann sicher eh wieder ein eigenes Siegel ( ??? jetzt neu in HDRColor-SmoothPicture-3D-UHD... x_X ) und neuere HDMI-Revisionen... viel Spaß damit! Ich hab meine Lektionen gelernt, als der noch fast neue HD-Fernseher nicht mehr HD-tauglich war, weil HDMI/HDCP veraltet.

MfG, Thomas
 
Zurück
Oben