News BBC zeigt Olympia 2012 teilweise in Ultra HDTV

man muss nah an den bildschirm um die pixel zu erkennen? seh ich anders :D

(Bild ist von 2008)
 

Anhänge

  • DSC00375.JPG
    DSC00375.JPG
    191,5 KB · Aufrufe: 796
Viele hier reden immer davon Pixel unterscheiden zu wollen oder zu erkennen. Damit aber keine "Seiteneffekte" der Pixelstruktur mehr wahrnehmbar sind, muss man diese Grenze weit unterschreiten. Erst dann ist es mit dem Blick durch ein Fenster, etc. zu vergleichen.

Außerdem ist es auch immer ausgesprochen albern hier immer zum besten zu geben, dass einem 720p völlig reicht. Wer will denn das bitte wissen. Ist es wirklich so schwer vorstellbar, dass es auch Menschen mit einem etwas anderen Qualitätsanspruch gibt (und auch teilweise erheblich besseren Augen)? Außerdem ist sich vom Fernseher weiter weg setzten auch keine Lösung, da man dadurch den Blickfeldanteil verkleinert.

Also ich finde es Klasse und vor allem die ÖR können sich davon mal ne scheibe abschneiden. Was die privaten machen ist mir persönlich seid HD+ sowieso egal.
 
Ultra HD hat 16x so viele Pixel wie FullHD !!!

Da FullHD auf meinem 140"-Screen schon zu viel ist, müsste ein Ultra HD Screen 600"-Diagonale haben, damit man überhaupt noch was lesen kann.
600"-Diagonale entspricht rund 15 Meter - nicht schlecht, aber so groß ist meine Zockerbude dann doch nicht.

McDaniel-77

P.S.: Außerdem sind mindestens 30 fps nötig und nicht mehr die ruckeligen 24 fps einer BluRay. Flüssig wird es erst ab +45 fps. OK, um sicher zu gehen sollte das Video mit 60 fps laufen. 60 fps à 7.680 x 4.320 Pixel (33,1 MP) entspricht 1.990.656.000 Pixel pro Sekunde. Bei 32 Bit Farbtiefe ergibt das eine Datenrate von 7.962.624.000 Byte/s - also rund 8 GB pro Sekunde. Das schafft gerade mal DDR3-RAM !!! Also was soll dieser Schwachsinn!?!
 
:D
Toller schritt, für den heimanwender wohl gänzlich oder erstmal lange zeit uninteressant ;)
Bei der abndbreite bräuchten wir neue medien für filme und ne ebssere bandbreite fürs tv.
Aber interessant,was alles machbar ist und für kinos sicher genau das richtige!

Für zuhause reicht mit im moment FULL HD vollkommen aus,
wenn hd schärfer als die realität ist was ist dann erst UHD ;P

MFG Don-DCH
 
Wen interessiert Olympia???

Ich will Pornos in Ultra HD, oder wenigstens Formel 1, MotoGP, was gescheites halt!


"Außerdem ist es auch immer ausgesprochen albern hier immer zum besten zu geben, dass einem 720p völlig reicht."

Aber echt. Das ist auch so typisches Konsolero-Gelabere, weil die Spiele auf den alten Dingern nur auf 720p laufen (Augenkrebsgefahr).
 
Zuletzt bearbeitet:
@McDaniel

Da FullHD auf meinem 140"-Screen schon zu viel ist, ...

Das solltest du jetzt nicht falsch verstehen, aber wenn das dein Ernst ist würde ich dir dringend den Gang zum Augenarzt empfehlen oder mal überprüfen ob dein Beamer ein scharfes Bild abliefert. Bei meinem 42" LCD FullHD, kann ich aus 3m Entfernung alles lesen zum Beispiel im Windows oder auf Webseiten.

Bei 32 Bit Farbtiefe ergibt das eine Datenrate von 7.962.624.000 Byte/s - also rund 8 GB pro Sekunde. Das schafft gerade mal DDR3-RAM !!! Also was soll dieser Schwachsinn!?!

1. Was bitte hast du für DDR3-RAM? Ich habe normalen 1333MHz DDR3 RAM und komme auf 18,7 GB/s
2. Die Daten werden komprimiert. Und da es quatsch ist auf der CPU zu dekodieren würde das auf der GPU passieren und da haben die richtig guten inzwischen um die 200GB/s (meine GTX470 hat 136,16 GB/s)
3. Durch die Kompression wächst im mittel die Bitrate im Verhältnis zur Auflösung massiv sublinear an. Weil es immer mehr zu Ähnlichkeiten innerhalb des Bildes kommt je größer es wird (im Mittel). Das gilt übrigens auch über die Zeit also bei 24p im Vergleich zu 48p oder 96p etc..
4. Durch 3. kannst du davon ausgehen, dass Bitrate für ein Video in UHD wesentlich weniger als 16 mal so groß sein muss wie die HD Bitrate um ein super Bild zu erzeugen. Wenn man nun 24MBit/s eines AVCHD als wirklich gut annimmt, dann kommt mit Sicherheit mit wesentlich weniger als 384MBit/s klar.
 
Klar, lieber schön 1080i50, weil man durch Interlacing überhauptkeine Bildinformationen verliert und trotzdem so viel Bandbreite spart!
Überhaupt, wieso jagen wir unsere Superdeinterlacer nicht nochmal über den höchst originalgetreuen, 1080p50-Strom drüber, dann haben wir 2160p100! SUPER!
 
Zuletzt bearbeitet:
Irgendeiner legt ja immer einen vor. Meistens zwar die Hardwarehersteller, aber diesmal halt die BBC. Ist auch überhaupt kein Problem. Sollte das Angebot von genug Kunden angenommen werden, dann regnet es in ein paar Jahren hochauflösende Monitore zu günstigen Preisen. Ich find das saugeil! Zudem würden die Onlineprovider ihre Leitungen aufbohren.
 
Man möchte meinen in so einem Forum wüsste in etwa jeder wie groß so ein h.264 Rip mittlerer Qualität ist.

ix.tank schrieb:
4. Durch 3. kannst du davon ausgehen, dass Bitrate für ein Video in UHD wesentlich weniger als 16 mal so groß sein muss wie die HD Bitrate um ein super Bild zu erzeugen. Wenn man nun 24MBit/s eines AVCHD als wirklich gut annimmt, dann kommt mit Sicherheit mit wesentlich weniger als 384MBit/s klar.

Danke fürs vorrechnen, aber 24Mb/s sind denk ich ne Spur zu hoch gegriffen - wären dann ja 16GB bei 90 Minuten laufzeit. Schaut man sich an wie groß so ein Rip ist auf div. Seiten, so sinds meistens nur um die 4GB für 720p und 8GB für 1080p.

Früher war ein (divx) Film von der DVD um die 600-700MB groß, jetzt sinds (auf 1080p mit h.264) 8 GB, bei uhd werdens dann wohl um die 80-100GB sein...

Schon klar, gibt auch höherwertige Rips, aber ich hab da bisher auch auf dem Fernseher zw. 8 und 20 GB Rips keinen unterschied gesehen. Und auf meinen 24" Monitor hab ich teilweise sogar Mühe den unterschied zw. 720p und 1080p zu erkennen ^^

ix.tank schrieb:
Viele hier reden immer davon Pixel unterscheiden zu wollen oder zu erkennen. Damit aber keine "Seiteneffekte" der Pixelstruktur mehr wahrnehmbar sind, muss man diese Grenze weit unterschreiten. Erst dann ist es mit dem Blick durch ein Fenster, etc. zu vergleichen.

Naja, die Pixelgrenzen an sich sind ja nicht das störende, sondern diese teilweise grell rausleuchtenden Subixel bei großen weißen flächen

ix.tank schrieb:
Außerdem ist sich vom Fernseher weiter weg setzten auch keine Lösung, da man dadurch den Blickfeldanteil verkleinert.

Hm.. ist schon ne Weile her, aber ich errinere mich mal gelesen zu haben dass wir nur in einem kleinen Bereich des Auges (in etwa so groß wie der Daumennagel bei ausgestreckem Arm) wirklich scharf sehen können, und an den Rändern der Netzhaut teilweise nicht mal mehr in der Lage sind Farben zu erkennen - das wird dort dann vom Gehirn sozusagen "interpoliert". Von daher wäre weiter weg setzen u.U. keine so schlechte Idee xD

ix.tank schrieb:
Was die privaten machen ist mir persönlich seid HD+ sowieso egal.

Ja. Traurig dass da so viele doch mit aufspringen. Ich hatte irgendwie gehofft dass sie auf die Nase fallen und Riesenverluste einfahren für diese Abzocke.
 
Zuletzt bearbeitet:
Dante2000 schrieb:
Respekt an Alle die bei FullHD Bildern noch Pixel erkennen wollen. Selbst bei den meisten PS3 Spielen sucht man die Pixel vergeblich. Da kann ich noch so nah ran gehen, dort ist immer noch alles Glasklar.

Ultra-HD - Für den Normalverbraucher recht uninteressant.

Ach komm das stimmt doch nicht oder deine Augen sind sehr schlecht. Wenn ich mich vor meinen 50 Zoll FULLHD Plasma stelle kann ich bis 40-50cm die einzelnen Pixel sehen. Nicht das von belang ist wenn ich auf 5m Entfernung eine BluRay schaue aber die Pixeldichte lässt teilweise schon zu wünschen übrig.

mfg MasterSepp
 
Megatron schrieb:
Bei einen 60" Gerät und HD Auflösung ist ein Pixel ca. 0.7mm groß.
Wenn du es schaffst aus 4m Abstand eine Zeitung zu lesen kannst du vielleicht einzelne Pixel wahrnehmen.

Nur, dass du bei den 4m Abstand ein Blickfeld von etwa 8m Breite hast. Da wirkt die 60"-Glotze dann trotz ihrer gewaltigen Größe arg verloren – kein Kino-Gefühl weit und breit.

Wenn ich jetzt einfach mal mein Wohnzimmer als Referenz nehme, so darf das Bild aus 2m Entfernung nicht pixelig wirken (was eine maximale Pixelgröße von ~0,5mm bedeutet), aber auch aus 4m Entfernung kein Aquarium-Effekt entstehen (wofür wiederum eine Breite von 3m nötig wäre). Und eben das zusammen ergibt 6000 Pixel in der Breite...
 
Zuletzt bearbeitet:
P4ge schrieb:
Ab 2012 fängt erstmal das große geheule an, wenn Otto-normal merkt ohh, Analog ist weg? Naja den Kabelleuten wird es ja noch dankeswerter weise ein paar Jahre erhalten bleiben -.-

betrifft ja nur die leute die nen analogen lnb und receiver haben

nur weil analog abgeschaltet wird heisst das ja nicht das man unbeding hd+ braucht um die
privaten sender zu schauen :D
 
Cytrox schrieb:
Danke fürs vorrechnen, aber 24Mb/s sind denk ich ne Spur zu hoch gegriffen - wären dann ja 16GB bei 90 Minuten laufzeit. Schaut man sich an wie groß so ein Rip ist auf div. Seiten, so sinds meistens nur um die 4GB für 720p und 8GB für 1080p.

Früher war ein (divx) Film von der DVD um die 600-700MB groß, jetzt sinds (auf 1080p mit h.264) 8 GB, bei uhd werdens dann wohl um die 80-100GB sein...

So verwendeten sie beispielsweise einen Cluster aus 16 HDTV-Videorekordern mit einer Gesamtkapazität von 3,5 Terabyte, um einen 18-minütigen Testfilm aufzunehmen.

Mal weis wie groß es in Wirklichkeit noch wird. Alleine die Übertragung wird der Hammer werden, was Grafikkarte und HDMI Kabel schaffen muss.
 
C0rd0n schrieb:
Wie nah sitzt du denn vor deinem Bildschirm? Ich kann sie erst ab 50cm Abstand auf einem 40" sehen

21,5", seh ich selbst bei 60cm Abstand vom Monitor die einzelnen Pixel o_O


Zum Thema Dateigröße:
Wenn 1920 *1080 = 2,1MP sind und das bei 2 Std. 8GB,
werden 7680 * 4320 = 33,2 MP (Faktor 16) 2Std. wohl um die 130GB liegen!
Von daher versteh ich nicht wie die auf diese TByte Datenvolumen/Traffic/Sekundenleistung kommen ...
 
Zuletzt bearbeitet:
Die Entwicklung ist sicherlich zu begrüßen und für Public Viewing o.ä. nötig, aber bis sowas für Heimanwender kommt, fließt noch ne Menge Wasser den Rhein runter.
Mein Nachbar hat am Wochenende erstmal seine Schüssel auf digital umgerüstet...

BTW: der Name geht gar nicht!
 
P4ge schrieb:
Ultra HDTV hat hoffentlich nen positiven Einfluss auf den PC sektor, wäre schön so ne Auflösung bei 27".

Ich möchte mal wissen wo man da dann noch nen Unterschied sehen kann.
 
Dante2000 schrieb:
Respekt an Alle die bei FullHD Bildern noch Pixel erkennen wollen. Selbst bei den meisten PS3 Spielen sucht man die Pixel vergeblich.

Also ich seh zum beispiel bei der Xbox360 auf einem FullHD fernseher noch pixel wenn ich 3 meter weg sitze. Also es sieht aus wie ohne Antialiasing.
 
wasn gelaber.. was hier scheinbar einige vergessen es gibt kaum UHD-Kameras
bisher nur irgendwelche zusammengebastelten Prototypen..

sicherlich wird nur Full HD auf UHD skaliert..:rolleyes:
 
Zurück
Oben