News DisplayPort 1.5: Mindestens 64,8 Gigabit/s für unkomprimiertes 8K60

MichaG

Redakteur
Teammitglied
Registriert
Juli 2010
Beiträge
12.855
Warum macht man nicht gleich höhere Raten?
Und was bringt die schnellere Schnittstelle, wenn selbst neue Hardware 2-3fach hinterher hinkt?

Für mich erst mal nur reines Marketing.
 
Naja, besser so, als andersrum. Stellt euch vor, die Hardware ist soweit und es gibt keine Standards, die frei benutzbar sind. Dann fangen die Hersteller an, ihre eigenen Standards zu schaffen und das dann schlimmstenfalls mit Lizenzkosten zu versehen und inkompatibel den anderen Herstellern gegenüber zu machen. NVIDIA macht dann ihren G-Port an die Grafikkarten, sodass man einen G-Port Monitor braucht.

Und dass man nicht bei DP 1.3 schon diese hohen Raten gemacht hat - es müssen ja alle Beteiligten in der Kette die hohen Raten auch können. Sprich, die Daten verarbeiten. Und da scheitert es wohl - weniger am Kabel selbst.
Die Daten müssen ja nicht nur fehlerfrei übertragen werden (auch das ist eine Herausforderung), sondern vom Empfänger empfangen und verarbeitet werden (inkl. Fehlerkorrektur & co.).
 
Zuletzt bearbeitet:
Vesa gegen Wireless display Wifi Direct Miracast Air Play und Co.

Vielleicht sollten Sie gleich besser streamen
 
Zuletzt bearbeitet:
Die sollten mal auf Glasfaser umschwenken. Dann sind 1Tbit/s kein Problem und die Kabellänge spielt fast keine Rolle.
Und man kann neue Grafikkarten und Bildschirme verkaufen :evillol:
 
Postman schrieb:
Warum macht man nicht gleich höhere Raten?

Weil die Hardware zum Emfpangen und Senden ja auch erst mal entwickelt werden muss. Mit Hammer und Axt kann man auch keine Mondfähre bauen.

Postman schrieb:
Und was bringt die schnellere Schnittstelle, wenn selbst neue Hardware 2-3fach hinterher hinkt?

Wie soll es denn anders funktionieren? Der Standard wird entwickelt und freigegeben, Hersteller können ihn dann in ihre Produkte integrieren. Da so ein Produkt nicht von heute auf Morgen am Markt ist, und man auch nicht in letzter Sekunde einfach mal so etwas umbauen kann, vergehen manchmal 12-18 Monate, bis man entsprechende Produkte im Handel findet. Das ist doch ganz logisch. Viel schlimmer wäre es, wenn die Hersteller ihr eigenes Süppchen kochen, und proprietäre Schnittstellen auf den Markt werfen würden (so wie wir das früher teilweise hatten). Zum Glück ist das fast überall vorbei. Sonst könntest du nämlich nur noch einen Nvidia-Monitor für Nvidia Grafikkarten kaufen, der dann nicht an AMD Karten passt, und der Samsung Fernseher hätte natürlich auch eine andere völlig inkompatible Schnittstelle dran.


Postman schrieb:
Für mich erst mal nur reines Marketing.

Das machen dann die Kabelhersteller. "Kauft unser neues Kabel, das kann 8K und zusätzlich Kaffee kochen!!!11" - wobei ein älteres vielleicht gereicht hätte. Ist jetzt aber auch nicht die Schuld vom DisplayPort ;)
Ergänzung ()

eremit007 schrieb:
Die sollten mal auf Glasfaser umschwenken. Dann sind 1Tbit/s kein Problem und die Kabellänge spielt fast keine Rolle.
Und man kann neue Grafikkarten und Bildschirme verkaufen :evillol:

Solange es mit dem guten alten Kupferkabel noch geht, wird sich daran wohl auch nichts ändern. Dürfte immer noch günstiger sein. Ausserdem kann man die Kabel misshandeln und muss nicht so sehr aufpassen wie mit Glasfaser. Für den DAU Endkunden sicher die bessere Wahl :D
 
neue Schnittstellen , nützt nur nicht wenn die Hersteller trotzdem Ihre vga ,hdmi und dp 1.2 einbauen :freaky:
und die neusten Sachen einfach ignorieren.
 
cruse schrieb:
In gewisser Weise ist es jetzt schon so. Wäre aber auch nach derzeitigem Stand nicht wirklich schlimm...

Jedes hersteller-spezische Format ist für den Kunden schlimm. G-Sync bringt dem Kunden nichts - gar nichts. Es kostet einfach nur zusätzliches Geld und schränkt den Kunden ein.

Warum sollte so etwas wie G-Port, also eine NVIDIA spezifische Schnittstelle zwischen Monitor und Grafikkarte für höhere Bandbreite "nicht schlimm" sein?

Manchmal glaube ich, dass die Kunden verarscht werden wollen... :freak:


dayworker123 schrieb:
neue Schnittstellen , nützt nur nicht wenn die Hersteller trotzdem Ihre vga ,hdmi und dp 1.2 einbauen :freaky:
und die neusten Sachen einfach ignorieren.

Bei den allermeisten Monitoren (60 Hz, FullHD) bringt DP 1.3 / 1.4 auch nichts. Warum sollen die Hersteller es dann verbauen für eventuelle Mehrkosten, die der Kunde dann bezahlt?
 
Zuletzt bearbeitet:
Wechhe schrieb:
Manchmal glaube ich, dass die Kunden verarscht werden wollen... :freak:

Kunden Bindung nennt man das .. erster Kurstag für Azubis... Und das wird knallhart überall durchgeführt in allen Produktbereichen.
 
Mein Gott, wenn ich daran denke wie lange DVI "gehalten" hat. Die Produktzyklen solcher Anschlüsse gleichen sich auch immer mehr denen von Neuwagen an.
Und in 3 Jahren wird dann die Spezifikation 16k120 verabschiedet und ein Jahr später 32k240... SIC!
 
Blade0479 schrieb:
Kunden Bindung nennt man das .. erster Kurstag für Azubis... Und das wird knallhart überall durchgeführt in allen Produktbereichen.

Mir ist klar, warum ein Hersteller das macht. Aber warum soll ich das als Kunde "nicht schlimm" finden, wenn ich dadurch nur Nachteile habe? Im Gegenteil, hier im Forum verteidigen viele Nutzer so etwas noch.

public_agent schrieb:
Mein Gott, wenn ich daran denke wie lange DVI "gehalten" hat. Die Produktzyklen solcher Anschlüsse gleichen sich auch immer mehr denen von Neuwagen an.
Und in 3 Jahren wird dann die Spezifikation 16k120 verabschiedet und ein Jahr später 32k240... SIC!

Was wäre schlimm daran, in 3 Jahren eine Spezifikation für 16K120 zu haben? Mal ein Geheimnis: Der alte Standard funktioniert dann immer noch ;)
 
Zuletzt bearbeitet:
Postman schrieb:
Warum macht man nicht gleich höhere Raten?
Und was bringt die schnellere Schnittstelle, wenn selbst neue Hardware 2-3fach hinterher hinkt?

Wechhe schrieb:
Naja, besser so, als andersrum. Stellt euch vor, die Hardware ist soweit und es gibt keine Standards, die frei benutzbar sind. Dann fangen die Hersteller an, ihre eigenen Standards zu schaffen und das dann schlimmstenfalls mit Lizenzkosten zu versehen und inkompatibel den anderen Herstellern gegenüber zu machen.

Man muss man als Negativbeispiel nur wlan betrachten.

Da hat sich seit 802.11ac nichts mehr getan und jetzt fangen manche schon an mit höheren Modulationsdichten. Schau dir nur Broadcom mit NitroQAM an.
 
digitalangel18 schrieb:
Solange es mit dem guten alten Kupferkabel noch geht, wird sich daran wohl auch nichts ändern.

Wenn es nur noch mit verlustbehafteter Kompression geht, dann geht es eben nicht mehr. Und wenn man schon an der Grenze des physikalisch machbaren ist, dann wird die Kabelqualität eine noch grössere Rolle als heute schon spielen.
Wenn die Impedanz der Kabel bis x GHz eingehalten werden muss, dann sind sie auch nicht mehr unbedingt günstiger als Glasfaser.
 
Ich schmeiss mal SATA 6GBit in den Raum. Die SSDs könnten schon deutlich schneller als diese 530mb/s... nun muss man für mehr Geschwindigkeit zwingend ein Board mit M2 sich besorgen und einen dollen Aufpreis für die gehäuselosen Speicherriegel hinlegen.
 
digitalangel18 schrieb:
Solange es mit dem guten alten Kupferkabel noch geht, wird sich daran wohl auch nichts ändern. Dürfte immer noch günstiger sein. Ausserdem kann man die Kabel misshandeln und muss nicht so sehr aufpassen wie mit Glasfaser. Für den DAU Endkunden sicher die bessere Wahl :D

Keine Ahnung wie steif und dick die 100 GBIT/s Ethernetkabel aus Kupfer ausfallen aber bei Kabellängen von unter 10m dürfte es technisch keine Notwendigkeit geben auf Glasfaser zu gehen.

Ansonsten, her mit der Bandbreite. :)

Am besten für Netzwerk und USB. :)
 
Das liegt sicher nicht am Preis für ein Glas- vs. Kuperkabel sondern an der weiteren Technik (Stichwort Transceiver) die benötigt werden auf beiden Seiten. Das macht sicher etwas mehr aus als das Kabel an sich. Kabel müsste der Consumer ja eh extra kaufen, aber teure Technik im Monitor und in Grafikkarten würden sich direkt auf die Preise jener Niederschlagen. Würde sich doch keiner kaufen dann.
 
8K ... es wird immer sinnloser !

Gibt es die neuen (und teuren!) Displays dann im Bundle mit einem paar neuer Augen, weil die "alten" diese Auflösung nicht mehr unterscheiden können?

Fragt mal euren Augenarzt, was euer Auge noch erkennen kann, und in welchem Abstand! Leider werden technische Neuerungen von vielen Redakteuren gar nicht hinterfragt. Statt kurz nachzudenken, wird die Pressemitteilung des Herstellers abgeschrieben. Bei der Optane hat CB zum Glück Praxistests gemacht und den fehlenden Nutzen aufgedeckt.
 
Zuletzt bearbeitet:
@HaZweiOh

Bevor du dem Redakteur hier irgendwas unterstellst, belege deine Aussagen doch einfach mit einer Quelle.

edit:
Das Auge selbst kann keine 8K auflösen - richtig. Das heißt aber nicht, dass es komplett sinnlos ist, ein 8K Bild zu haben, weil eben Abstand und Bildgröße dazukommt.

Alter Beitrag:
Das menschliche Auge hat ein deutlich höheres Auflösungsvermögen als 8K. Zumal der Abstand und die Bildschirmgröße ebenfalls eine Rolle spielen.
 
Zuletzt bearbeitet:
Schon 4K ist im Wohnzimmer sinnlos, weil das Auge keinen Unterschied erkennt.
Und denk mal an die Nachteile, die eine Explosion bei der Auflösung mit sich bringt! Wenn das alles "kostenlos" zu haben wäre, könnte man wenigstens sagen "ok, schaden tut es auch nicht".
Das Problem ist, dass der Grenznutzen rapide sinkt!


Ich unterstelle den Redakteuren nichts, sondern beobachte, dass viele nur die Pressemitteilung abschreiben. Das bezieht sich aber nicht auf diesen Artikel. Das Beispiel Optane habe ich ja schon genannt.
 
Zuletzt bearbeitet:
Zurück
Oben