News VESA: DisplayPort 1.4 ermöglicht Ultra HD mit HDR bei 120 Hz

@bunghole
Genau das ist das Problem.

Wieso werden eigentlich keine LWL genommen anstatt den Kabeln, die wir heute haben? Darüber sollte doch eine deutlich höhere Datenrate möglich sein bei gleichzeitig höherer Reichweite (wobei FHD auf meinem TV bei 15m HDMI problemlos geht...) und eine Komprimierung wäre auch nicht nötig.
 
was für ein Trara, ständig veraltete Hardware bei de Feature XYZ fehlt ich weiss warum ich Konsolen empfehle.
Frag mich nur wie Sony damals per SoftwareUpdate auf der Playstation 3 3D nachgeschoben hat obwohl das Interface nicht HDMI1.4 oder was immer man für braucht unterstützte

Und wie ist das jetzt, angeblich ists 3D ein Legacy Feature....,
Philips nimmt gleich das ganze Smart TV Gedöns raus. (TPVision Gibson)
 
Pitt_G. schrieb:
Frag mich nur wie Sony damals per SoftwareUpdate auf der Playstation 3 3D nachgeschoben hat obwohl das Interface nicht HDMI1.4 oder was immer man für braucht unterstützte (TPVision Gibson)

Weil sie vielleicht auf FPGAs statt auf ASICs gesetzt haben...
 
jubey schrieb:
Kann mir mal einer erklären was man von HDR zu erwarten hat... Ich kenne natürlich das Prinzip aus der Fotografie, aber wie soll das bei Bewegtbild funktionieren,

Vergiss das gleich wieder. HDR im Heimkino/HiFi Bereich hat mit der HDR Fotografie absolut gar nichts zu tun. Es geht hier ausschließlich um einen erweiterten Farbraum. Also um den vollen RGB Farbraum, statt - wie bisher - dem eingeschränkten. Entsprechende Fernseher arbeiten mit einer LUT bis zu 16bit.
Ergänzung ()

Pitt_G. schrieb:
Philips nimmt gleich das ganze Smart TV Gedöns raus. (TPVision Gibson)

Das betrifft nur die Blu-Ray Player und ähnliche Geräte. Bei TVs - wor allem bei den neueren Geräten nach 2014 mit Android TV - bleibt SmartTV natürlich erhalten.
Ergänzung ()

basketballer schrieb:
Bin mal gespannt, wann wir anfangen müssen, die Kabel zu kühlen. Bei den Datenraten die da durchgejagt werden.

Bevor das geschieht, wird einfach auf Lichtleiter-Kabel umgerüstet.
 
Displayport 1.3 kann kein UHD@120Hz@HDR? Mau!
 
Das wird wohl noch ewig dauern bis DP 1.4 zu haben sein wird und ob sich das Warten auf das zusätzliche HDR Feature unter 4K/UHD und mit 120Hz wirklich lohnt im Vergleich zu DP 1.3? Ich denke mir würde OLED im Zusammenspiel mit DP 1.3 schon reichen sowie Freesync, 120Hz, 4K/UHD Auflösung, 30"+, etc. und bis das in vernünftigen Preisregionen angeboten werden wird, dürfte es schon noch ein Weilchen dauern (solange muss mein Full HD Monitor idealerweise wohl noch durchhalten, 1440p wird übersprungen).
 
basketballer schrieb:
Bin mal gespannt, wann wir anfangen müssen, die Kabel zu kühlen. Bei den Datenraten die da durchgejagt werden.

Die Datenrate erhöht aber nicht die Temperatur auf dem Kabel. Wer kommt denn auf eine solche Idee. Die Temperatur ist nur vom Strom abhängig. Da sich der aber kaum verändert und nur korreliert mit der möglich Erhöhung der Spannung um den Signallevel zu erhöhen und besser Erkennung zu können. Bevor dem Kabel zu heiß wird also zu viel Strom durch den Leiter fließt, kommt am Ende des Kabels eh kein sinnvolles Signal mehr raus. Sprich wir sind lange bevor das Kabel überhaupt gekühlt werden muss, am Ende der möglichen Frequenz und Bandbreite angekommen. Alternativ einfach den Leiter vergrößern..

Leute kommen auf Ideen.
 
Postman schrieb:
Wird Zeit , dass diese Anschlüsse gepusht werden.

Falls man sich beschweren will, erst 2013 hat Nvidia angefangen Displayports zuverbauen,
4 Jahr davor hat AMD begonnen.
Jetzt kann man natürlich auch sagen die Monitorhersteller waren schuld ... :rolleyes:
 
Danke für die Erklärung an alle...
Dass es nicht das gleiche ist hab ich mir schon gedacht. Allerdings hat mich der CB-Link etwas irritiert...
Warum schreibt man dann nicht einfach @10bit? Wahrscheinlich ist für den Durchschnittsnutzer diese "Vereinfachung" noch sinnvoll, aber von einer Technikseite erwarte ich ein wenig mehr.
Außerdem, wenn es nur um 10bit geht, warum erwähnt man nicht, dass DP1.2 auch dazu fähig ist diese Farbtiefe auf UHD bereitzustellen?

@CB es wäre wünschenswert wenn gerade hier etwas mehr Info zu lesen wäre, anstatt einen irreführenden WIKI-Link zu HDR reinzustellen.

MaverickM schrieb:
Vergiss das gleich wieder. HDR im Heimkino/HiFi Bereich hat mit der HDR Fotografie absolut gar nichts zu tun. Es geht hier ausschließlich um einen erweiterten Farbraum. Also um den vollen RGB Farbraum, statt - wie bisher - dem eingeschränkten. Entsprechende Fernseher arbeiten mit einer LUT bis zu 16bit.

...
Nee, da bringst du was durcheinender. ;)
Ein Farbraum hat überhauptnichts mit Farbumfang zu tun. Ein 10bit Display zeigt auch nicht per se bessere/buntere Farben an, sondern mehr Zwischenschritte (sofern die anderen Komponenten mitspielen). Die LUT spiegelt die Ganauigkeit der internen Berechnung der Farben wieder. Die Bittiefe der LUT liegt immer über der der tatsächlichen Ausgabe. Bei 10bit Monitoren sind LUTs mit 14 oder gar 16bit üblich. Bei Fernsehern würde mich eine so hohe Bittiefe etwas wundern, kenne mich da aber nicht aus...
 
Zuletzt bearbeitet:
Bevor das eine da ist, kommt das andere. Ich finde das mittlerweile einfach so hirnverbrannt bescheuert, dass mir echt die Worte fehlen. Nirgendwo Absprachen, nirgendwo was das richtig genormt ist und jeder will aber keiner macht so richtig. Statt gleich einen Sprung zu machen und einen Standard zu halten bis sich der Markt darauf einstellt, folge eine Ankündigung der nächsten.
 
hmm, aus Spielersicht wäre da ein anderes Zusammenkommen wichtiger...gibt's denn da irgendwelche Hinweise, ob sich die zwei Vollpfosten bzw. zumindest der eine Vollpfosten unter dem Dach DP 1.4 endlich einig werden in Bezug auf var. Refreshrate Synchronisierung?

Alles andere ist für mich ehrlich gesagt nur Beiwerk und dann ärgerlich, wenn man in fünf Jahren immer noch diesen Blödsinn GraKa-Hersteller abhängig kaufen muss.
 
menace_one schrieb:
HDR in der Fotografie != HDR bei TV

Fotografie: Mehrfachbelichtung bzw. pushen der Tiefen/Höhen
TV: Anstelle von 255 Abstufungen pro Kanal (8 Bit), sind 1024 Abstufungen (10 Bit) möglich.

Nein, HDR ist in der Fotografie absolut das gleich wie bei Spielen und bei Bildschirmen. Es geht schlicht um einen größeren Dynamikumfang. Bei der Fotografie durch RAW-Bilder (14 Bit) oder durch Mehrfachbelichtungen bei Games durch Rendering mit 10 Bit+ und bei Bildschirmen eben durch die korrekte Darstellung selbiger Inhalte ohne Tone Mapping oder Dynamikkompression (je nach dem wie viel Abstufungen das Display darstellen kann)

Bei Fotos und zum Teil auch bei Games wird gerne der Fehler gemacht das Tone Mapping / die Dynamikkompression als HDR zu bezeichnen, das Ergebnis ist aber nur eine Abbildung eines HDR-Bildes auf die 8-Bit pro Farbkanal die aktuell Standard sind.

Daher keine Angst, HDR bei Anzeigen kann wirklich einen gewaltigen Sprung nach vorne bedeuten, vor allem für alle die mit ihren DSLRs RAW-Fotos machen dort hat man dann schon von Haus aus eine höhere Farbtiefe.
 
core2e6300 schrieb:
Wieso werden eigentlich keine LWL genommen anstatt den Kabeln, die wir heute haben? Darüber sollte doch eine deutlich höhere Datenrate möglich sein bei gleichzeitig höherer Reichweite (wobei FHD auf meinem TV bei 15m HDMI problemlos geht...) und eine Komprimierung wäre auch nicht nötig.

Das geht nicht, dann könnte man ja immer das selbe Kabel und selben Stecker verwenden, nur die Elektronik in den Geräten würde sich ändern.
Denk doch an die Wirtschaft.^^
 
Markttechnisch machen die das genau richtig: Kaum ist eine Technologie durch Geräte umgesetzt und verkauft, wird was neues angekündigt. Nicht etwas um das Leben der Menschen zu verbessern, nein, sondern um ihnen die hartverdiente Kohle abzulocken. :p
 
UrlaubMitStalin schrieb:
Schon krass wie HDMI dagegen abstinkt :D

HDMI zielt auf was ganz anderes ab als DisplayPort.

HDMI mag in der Datenrate zwar immer DisplayPort hinterherhinken, dafür erlaubt HDMI aber Distanzen die mit DisplayPort nicht möglich sind.
Auf kurze Distanz viel Daten zu übertragen ist nunmal nicht so schwierig wie auf weiteren Strecken.
 
wo ist den jetzt eigentlich der unterschied zwischen 10 bit, was es ja schon ewigkeiten gibt, und hdr? mir noch nicht klar. den jede gpu kann doch 10bit ausgeben. Und Monitore die damit etwas anfangen sind ja nicht nur Eizo, Dell und Nec....

Verstehe irgendwie nicht wo HDR eigentlich jetzt richtig neu sein soll....
 
Zurück
Oben