News VESA: DisplayPort 1.4 ermöglicht Ultra HD mit HDR bei 120 Hz

Ist ja schlau den Leuten die gerade auf neue DP1.3-hardware(GPUs, wie Monitore) warten zu sagen, was DP1.3 alles nicht kann und was DP1.4 dagegen können wird.
Warum lassen sie dann DP 1.3 nicht gleich ganz weg und bringen direkt 1.4 ?
1.3 ist ja noch gar nicht auf dem Markt.


So ungefähr 5.120x2160 (21:9 ? ) mit zumindest 90 Hz und HDR, Plus sync, wäre schon was feines zum Zocken, so fern da die GPU mitspielt, die erst noch dafür rauskommen muss. ;)

Wenn das mit 1.3 noch nicht möglich ist, wartet man dann doch lieber gleich noch etwas länger auf 1.4.
Die Dinger werden sicher ja auch nicht so billig, dass man 2 jahre später gleich wieder was neues in 1.4 kaufen will, wenn man für den 1.3er gerade erst richtig Geld locker gemacht hat.


Naja, Luxusprobleme.
Aber die schaffen es schon, uns alle paar Jahre unser Geld aus der Tasche zu ziehen.
Vielleicht schalt' ich mal n Gang zurück.

Mal schaun wie lange ich mit meiner "Retro-Hardware" noch auskomme ;)
 
@ MichaG:

2713.jpg


Was haben diese "Sonderzeichen" mit 27-13 als Inhalt in dieser Tabelle für eine Bedeutung?

Ist diese Darstellung so gewollt oder werden diese Zeichen nur von meinem Firefox so kryptisch dargestellt?
Läßt sich das im Browser umstellen, falls er der Verantwortliche ist?
 
k0ntr schrieb:
puh, ich glaube dieses Jahr wird es sehr interessant.

VR , h265, neue (wirklich neue) Grafikkarten und CPU (Zen), Monitore werden immer interessanter mit Free-G-Sync, DX12 ... puh, ich freue mich auf das Weihnachtsgeschäft :D

Ich will nächstes Jahr einen PC kaufen und hoffe auf eine spielbare Version von Star Citizen.
Ich glaube ich mache meinen PC Kauf-Termin von StarCitizen abhängig. Schließlich kenne ich keine Spiele, die bald kommen könnten, mich interessieren und mein Notebook mit einer GTX 980M nicht packen wird.

Aber ich befürchte, dass Star Citizen erst 2018 eine Beta wird :(
Solange muss ich wohl EVE Online weiterspielen. Und selbst wenn es kommt, befürchte ich, dass das Spiel weniger als EVE Online bieten wird.
 
Zuletzt bearbeitet:
metoer schrieb:
Das geht nicht, dann könnte man ja immer das selbe Kabel und selben Stecker verwenden, nur die Elektronik in den Geräten würde sich ändern.
Denk doch an die Wirtschaft.^^

Ups, das habe ich ganz vergessen.
Wie Recht du doch hast! ;)
 
Motorrad schrieb:
@ MichaG:

Anhang anzeigen 546777


Was haben diese "Sonderzeichen" mit 27-13 als Inhalt in dieser Tabelle für eine Bedeutung?

Ist diese Darstellung so gewollt oder werden diese Zeichen nur von meinem Firefox so kryptisch dargestellt?
Läßt sich das im Browser umstellen, falls er der Verantwortliche ist?

Das ist das Zeichen für ein Häkchen (check mark). Wird bei mir in Chrome, Firefox und Opera korrekt dargestellt. Liegt also vielleicht an einer Einstellung in deinem Firefox. Wie man das ändern kann, weiß ich leider nicht.
 
ix.tank schrieb:
Nein, HDR ist in der Fotografie absolut das gleich wie bei Spielen und bei Bildschirmen. Es geht schlicht um einen größeren Dynamikumfang. Bei der Fotografie durch RAW-Bilder (14 Bit) oder durch Mehrfachbelichtungen bei Games durch Rendering mit 10 Bit+ und bei Bildschirmen eben durch die korrekte Darstellung selbiger Inhalte ohne Tone Mapping oder Dynamikkompression (je nach dem wie viel Abstufungen das Display darstellen kann)

Bei Fotos und zum Teil auch bei Games wird gerne der Fehler gemacht das Tone Mapping / die Dynamikkompression als HDR zu bezeichnen, das Ergebnis ist aber nur eine Abbildung eines HDR-Bildes auf die 8-Bit pro Farbkanal die aktuell Standard sind.

Daher keine Angst, HDR bei Anzeigen kann wirklich einen gewaltigen Sprung nach vorne bedeuten, vor allem für alle die mit ihren DSLRs RAW-Fotos machen dort hat man dann schon von Haus aus eine höhere Farbtiefe.
Hmm, hier reden ja so manche von der Farbtiefe (Bittiefe), nur, was hat die mit dem Dynamikumfang zu tun?
Hohe Dynamik bedeutet, wir haben einen hohen Kontrastumfang, klar. Ein VA-Panel bietet einen höheren Dynamikumfang als ein IPS z.B. Im Idealfall um das fünffache. Aber da nutzt auch die höhere Bittiefe erstmal nichts (wenn man Banding als Problem erstmal außer Acht lässt).
Das Zauberwort bei HDR ist also der Kontrastumfang des Displays. bunghole hat ja schon OLED und QD-LCD ins Spiel gebracht. Damit springen wir erst in neue Dimensionen.
Was aber noch nicht gefallen ist, und quasi die Übergangstechnik zu sein scheint ist local dimming. Wobei mir noch nicht klar ist in wieweit die grobe LED-Matrix sich für die üblichen Desktopinhalte nutzen lässt. Denn im Grund müsste sich das LCD der Matrix anpassen, damit das nicht in einer wolkigen Darstellung endet. Sprich die LCD-Matrix muss genaustens wissen was die Hintergrundbeleuchtung gerade macht, und zwar Subpixel für Subpixel. Keine Ahnung wie das umgesetzt werden kann, allerdings kann ich mir vorstellen, dass nur eine Bittiefe jenseits von 8bit die nötige Präzision bietet um dessen Herr zu werden, ohne störendes Banding und eventuell Farbdrifts zu produzieren.
Und zurück zu den HDR-Fotos... da hast du natürlich Recht, der Name sagt es ja schon. Nur hat sich in Ermangelung der Darstellbarkeit auf den üblichen Displays und erst recht auf Papier, eben das zurückrechnen auf die Standarddynamik eingebürgert. Mit den bekannten, grässlichen Ergebnissen in Fotoforen und Co. *duck* ;)

lynx007 schrieb:
wo ist den jetzt eigentlich der unterschied zwischen 10 bit, was es ja schon ewigkeiten gibt, und hdr? mir noch nicht klar. den jede gpu kann doch 10bit ausgeben. Und Monitore die damit etwas anfangen sind ja nicht nur Eizo, Dell und Nec....

Verstehe irgendwie nicht wo HDR eigentlich jetzt richtig neu sein soll....
Nicht jede GPU kann 10bit ausgeben, Nvidia Gamingkarten können es vorerst nicht. Ansonsten s.O.

E:
Dieser schon älte Artikel veranschaulicht es ganz gut... beim dritten Bild sieht man aber auch das erwähnte Problem, das das Ganze mit sich bringt, deutlich in Form einer Aura um das Logo.
 
Zuletzt bearbeitet:
jubey schrieb:
Und zurück zu den HDR-Fotos... da hast du natürlich Recht, der Name sagt es ja schon. Nur hat sich in Ermangelung der Darstellbarkeit auf den üblichen Displays und erst recht auf Papier, eben das zurückrechnen auf die Standarddynamik eingebürgert.

Sehr schön beschrieben.
HDR Bilder lassen sich erst auf künftigen HDR Monitoren korrekt wiedergeben und müssen bis da hin herunter gerechnet werden für die derzeitigen LDR Monitore... Low Dynamic Range...
 
Und der erste Monitor damit kommt dann 2020?
 
DP1.3 soll ja schon dieses Jahr kommen.
Ich frage mich nur, ob ich dann lieber gleich weiter warte auf DP1.4.

Warten, warten ...
Es ist manchmal schwer geduldig zu sein, wenn man schon weiß, was denn irgendwann mal kommen soll.


Wo hatte ich das nochmal gelesen, mit HDR ?

Ach hier:
Laut AMD sollen im Laufe des nächsten Jahres die ersten HDR-Monitore sowie weitere HDR-fähige Fernseher in den Handel gelangen und sich nach und nach etablieren. Als Zeitpunkt gibt man Ende 2016 an – pünktlich zur „Holiday Season“ sollen die Produkte im Handel stehen.

Link vom 8.12. : https://www.computerbase.de/2015-12/amd-radeon-support-fuer-hdr-und-4k-displays-mit-120-hz-ab-2016/

Edit:
Ich frage mich nur, ob die kommende GPU-Generation dann schon "so richtig" HDR unterstützt, oder erst die darauffolgende Generation, oder später, mit DP 1.4.
Die HDR Monitore sollen ja angeblich zum Weihnachtsgeschäft 2016 schon kommen, wenn man AMD glauben darf.


Mir würde eine Kombination aus großem(36"+) 21:9 "5K" Monitor bei ca. mind. 90Hz in 5120x2160, mit HDR und Sync-Technik, plus passender GPU die das packt(1080 Ti, oder Nachfolger ?), ja schon reichen. :D
Das wäre endlich mal n Grund zum richtigen Aufrüsten.
 
Zuletzt bearbeitet:
HDR TVs kommen noch diesen Monat. Ist schon eine tolle Technik. Bringt sicher viel mehr als 4K Ultrablabalmondauflösungen.

Jedenfalls im TV Bereich.
 
jubey schrieb:
Hmm, hier reden ja so manche von der Farbtiefe (Bittiefe), nur, was hat die mit dem Dynamikumfang zu tun?

Die Farbtiefe ist nun mal schlicht die Grundlage, wenn es um das zugespielte Material geht. Ein HDR-Display mit 8-Bit-(pro Kanal)-Bildern kann nun mal auch keine zusätzlichen Farbabstufungen herzaubern. Es könnte die 8 Bit dann auf 10 oder mehr Bit strecken oder es mittig unskaliert im Helligkeitsbereich anzeigen. Also ein 14-Bit-RAW-File hat demnach das Potiential direkt als HDR-Datenquelle genutzt zu werden, allerdings rauscht es in den unteren Randbereichen natürlich mehr als in der Mitte.

Der Farbraum hat im übrigen erst einmal nichts mit HDR zutun, weil das hier auch schon ab und zu gefallen ist. Bei HDR geht es ausschließlich um die Intensität und die "Auflösung" ihrer Abstufungen!
 
Bis Mitte/Ende 2017 oder kurz nach 2018 (ok das könnte ein bisschen übertrieben sein. Aber Mitte 2017 MINDESTENS) braucht man erst mal gar nichts von DP 1.4 Produkten erwarten.

Also im besten Fall Sommer 2017 mit entsprechenden Grafikkarten. Je nach Roadmap und wann die Chips schon fertig designt sind eher später.
 
Zuletzt bearbeitet:
menace_one schrieb:
HDR in der Fotografie != HDR bei TV
Nein, eben genau nicht!

HDR in der Fotografie ist der Versuch, Motive mit sehr hohem Kontrastumfang, z.B. 1000:1 oder mehr, auf Medien darzustellen, die dazu aufgrund ihrer Beschränkungen gar nicht in der Lage sind. Diese Beschränkungen können einerseits physikalischer Natur sein, wie etwa die maximalen Kontraste, die LCDs darstellen können, andererseits aber auch in den verwendeten Datenformaten begründet sein. So hat JPG oder auch "normales" (herkömmliches) Video nur eine Farbtiefe von 8 bit, womit sich maximal 256 verschiedene Helligkeitsabstufungen pro Grundfarbe darstellen lassen. Mit sowas kann, vereinfacht gesagt, ein Kontrastumfang von mehr als 256:1 nicht sinnvoll dargestellt werden. Sonst ergibt sich in Flächen mit gleichmäßigen Farb- und / oder Helligkeitsverläufen unschönes Banding.

HDR in der Fotografie ist somit eine Dynamikkompression. Entsprechend flau sehen HDR-Fotos auch manchmal aus.

HDR für Video / TV, bisher auch Deep Color genannt, was ich eigentlich besser finde, ist genau der Versuch, diese Beschränkungen aufzuheben bzw. die Grenzen zu erweitern, so dass keine oder keine so starke Dynamikkompression nötig ist. Inzwischen gibt es ja Displaytechnologien die Kontraste bis deutlich über 1000:1 darstellen können.

Wobei die momentane Ausprägung mit anscheinend 10 bit Farbtiefe - gerade mal 2 bit mehr als bisher - wieder ganz typische Salamitaktik sind. Wenn schon, dann sollte man gleich auf 16 bit gehen, zumindest für das Datenformat. Das wäre dann echt zukunftssicher. So wie jetzt ist klar dass bestimmt schon nächstes Jahr, und damit wieder bevor auch nur die ersten Geräte mit DP 1.4 rausgekommen sind, die nächste Version nachgeschoben wird. Immer schön scheibchenweise...

koffeinjunkie schrieb:
Bevor das eine da ist, kommt das andere. Ich finde das mittlerweile einfach so hirnverbrannt bescheuert, dass mir echt die Worte fehlen. Nirgendwo Absprachen, nirgendwo was das richtig genormt ist und jeder will aber keiner macht so richtig. Statt gleich einen Sprung zu machen und einen Standard zu halten bis sich der Markt darauf einstellt, folge eine Ankündigung der nächsten.
Genau das ist das Problem... da kann einem total die Lust vergehen, weil man zu keinem Zeitpunkt mehr ein Gerät kaufen kann, das auch nur dem aktuellen Stand der Normung - soweit man hier überhaupt noch von Normung sprechen kann - entspricht, von Zukunftssicherheit ganz zu schweigen.

Ich werde wohl warten bis...
  • die Displays wenigstens 12 bit Farbtiefe und Kontraste deutlich über 1000:1 - und zwar nicht nur auf Achse, sondern auch aus deutlich seitlicher Richtung - darstellen können, und das auch in nicht abgedunkelten Räumen. Die UHD Premium Vorgabe zur Spitzenhelligkeit - es müssen, zumindest örtlich - 1000 cd/m2 erreicht werden, und ganzflächig 540 - ist da in meinen Augen ein sehr wichtiger Schritt in die richtige Richtung,
  • es ein Display gibt das gleichermaßen gut als TV und als Monitor taugt
  • es ein Display gibt das alle sinnvollen Framerates verarbeitet, wohl etwa 15 bis 144 Hz, und das auch bei 3D Darstellung, und selbstverständlich unabhängig vom Hersteller der GraKa
  • nicht nur alle (besseren, dann aktuellen) GraKas in der Lage sind, mindestens mit 12 bit Farbtiefe auszugeben, sondern auch
  • alle gängige Bild- und Videobearbeitungs- und Darstellungssoftware,
  • sich entsprechende Datenformate, die dafür Voraussetzung sind, etabliert haben
  • das alles zu bezahlbaren Preisen erhältlich ist.

core2e6300 schrieb:
Die Komprimierung bei der Videoübertragung halte ich für eine schlechte Lösung. Dabei muss ja garantiert werden, dass die maximale Bandbreite der Schnittstelle nicht überschritten wird. D. h. im Notfall wird die Komprimierung hochgeschraubt (passiert natürlich alles im Hintergrund). Nicht, dass dann noch Artefakte entstehen.
Wenn es stimmt, dass nur maximal 3:1 komprimiert wird - und das erscheint aufgrund der Zahlen glaubwürdig - dann kannst Du das getrost vergessen.

Das bisschen Kompression ist völlig irrelevant im Vergleich zur Kompression der gängigen Video-Codecs, H264 und H265 / HEVC. Die liegt, grob gesagt, ums 100-fache höher! Und im TV-Bereich wird aufgrund der Kanalbandbreiten mit nochmals deutlich höheren Kompressionsraten gearbeitet. Solange der Wahnsinn mit 100en von Kanälen so weitergeht wird sich daran auch nichts ändern, die Distributionsbandbreite ist nun mal begrenzt. Ich fürchte daher dass wir im Fernsehen auch dann, wenn tatsächlich mal irgendwo in UHD und HDR / Deep Color und in HEVC ausgestrahlt wird weiterhin das beliebte Banding sehen werden, das mir schon heute, bei nur 720p, den Filmspaß verdirbt.

:heul:
 
HDR für Video / TV, bisher auch Deep Color genannt, ...
Nun ist HDR aber nicht gleich Deep Color, sondern die höhere Bitrate ein Mittel zum Zweck, und zusammen mit einem hohen Kontrastumfang das Mittel für HDR.
Was nur 2Bit mehr angeht so sind das dennoch viermal so viele Abstufungen pro Kanal... da ist schon etwas, außerdem gibt es solche Displays ja auch schon länger in gewissen Branchen wo diese Farbauflösung auch durchaus ausreicht um vollkommen Bandingfrei darzustellen...
Ansonsten geht dein Wunschdisplay klar in Richtung eierlegende Wollmilchsau ... und naja, wer wünscht sich das nicht? ;) (wobei ich da noch einiges zu ergänzen hätte, was anderen vielleicht wieder nicht so wichtig ist)... Warten wirst du darauf aber noch ein paar Jährchen...
 
jubey schrieb:
Was nur 2Bit mehr angeht so sind das dennoch viermal so viele Abstufungen pro Kanal... da ist schon etwas
Stimmt, es ist schon ein Schritt in die richtige Richtung.

jubey schrieb:
außerdem gibt es solche Displays ja auch schon länger in gewissen Branchen wo diese Farbauflösung auch durchaus ausreicht um vollkommen Bandingfrei darzustellen...
Wobei Banding auch mit nur 8 bit Farbtiefe durchaus vermieden werden kann... wenn man weiß worauf's ankommt.

jubey schrieb:
wobei ich da noch einiges zu ergänzen hätte, was anderen vielleicht wieder nicht so wichtig ist
Erzähl doch mal, das interessiert mich!

jubey schrieb:
Warten wirst du darauf aber noch ein paar Jährchen...
So viel ist mir klar... und wenn die Leute bzw. Gremien, die über die Kanalaufteilung in der TV-Distribution entscheiden, nicht endlich mal Nägel mit Köpfen machen - sprich: weitaus größere Kanalbandbreiten einteilen - dann wird vielleicht auch nie was draus.

Wenn ich mir selbst aufgezeichnetes 4K ansehe, dann weiß ich dass selbst 50 Mbit/s eigentlich eigentlich noch zu wenig ist... und das obwohl ich eh nur mit 30 fps aufnehmen kann, was für 4K eigentlich auch noch zu wenig ist.

Wenn man mal die Konsequenz daraus zieht: die aktuellen TV-Distributionssysteme sind für die Verteilung von qualitativ hochwertigem 4K-Material schlichtweg ungeeignet. Einzig IPTV kommt m.E. in Frage, allerdings auch nur ab 200Mbit/s aufwärts. Und dafür fehlt auch an den meisten Orten noch die Infrastruktur.
 
Zurück
Oben