News DisplayPort 1.5: Mindestens 64,8 Gigabit/s für unkomprimiertes 8K60

Dabei seit
Juni 2003
Beiträge
3.045
#2
Warum macht man nicht gleich höhere Raten?
Und was bringt die schnellere Schnittstelle, wenn selbst neue Hardware 2-3fach hinterher hinkt?

Für mich erst mal nur reines Marketing.
 
Dabei seit
Aug. 2002
Beiträge
4.911
#3
Naja, besser so, als andersrum. Stellt euch vor, die Hardware ist soweit und es gibt keine Standards, die frei benutzbar sind. Dann fangen die Hersteller an, ihre eigenen Standards zu schaffen und das dann schlimmstenfalls mit Lizenzkosten zu versehen und inkompatibel den anderen Herstellern gegenüber zu machen. NVIDIA macht dann ihren G-Port an die Grafikkarten, sodass man einen G-Port Monitor braucht.

Und dass man nicht bei DP 1.3 schon diese hohen Raten gemacht hat - es müssen ja alle Beteiligten in der Kette die hohen Raten auch können. Sprich, die Daten verarbeiten. Und da scheitert es wohl - weniger am Kabel selbst.
Die Daten müssen ja nicht nur fehlerfrei übertragen werden (auch das ist eine Herausforderung), sondern vom Empfänger empfangen und verarbeitet werden (inkl. Fehlerkorrektur & co.).
 
Zuletzt bearbeitet:

Pitt_G.

Rear Admiral
Dabei seit
Aug. 2007
Beiträge
5.519
#4
Vesa gegen Wireless display Wifi Direct Miracast Air Play und Co.

Vielleicht sollten Sie gleich besser streamen
 
Zuletzt bearbeitet:

helionaut

Bisher: eremit007
Commander
Dabei seit
Jan. 2011
Beiträge
2.056
#5
Die sollten mal auf Glasfaser umschwenken. Dann sind 1Tbit/s kein Problem und die Kabellänge spielt fast keine Rolle.
Und man kann neue Grafikkarten und Bildschirme verkaufen :evillol:
 
Dabei seit
Mai 2005
Beiträge
6.257
#7
Weil die Hardware zum Emfpangen und Senden ja auch erst mal entwickelt werden muss. Mit Hammer und Axt kann man auch keine Mondfähre bauen.

Und was bringt die schnellere Schnittstelle, wenn selbst neue Hardware 2-3fach hinterher hinkt?
Wie soll es denn anders funktionieren? Der Standard wird entwickelt und freigegeben, Hersteller können ihn dann in ihre Produkte integrieren. Da so ein Produkt nicht von heute auf Morgen am Markt ist, und man auch nicht in letzter Sekunde einfach mal so etwas umbauen kann, vergehen manchmal 12-18 Monate, bis man entsprechende Produkte im Handel findet. Das ist doch ganz logisch. Viel schlimmer wäre es, wenn die Hersteller ihr eigenes Süppchen kochen, und proprietäre Schnittstellen auf den Markt werfen würden (so wie wir das früher teilweise hatten). Zum Glück ist das fast überall vorbei. Sonst könntest du nämlich nur noch einen Nvidia-Monitor für Nvidia Grafikkarten kaufen, der dann nicht an AMD Karten passt, und der Samsung Fernseher hätte natürlich auch eine andere völlig inkompatible Schnittstelle dran.


Das machen dann die Kabelhersteller. "Kauft unser neues Kabel, das kann 8K und zusätzlich Kaffee kochen!!!11" - wobei ein älteres vielleicht gereicht hätte. Ist jetzt aber auch nicht die Schuld vom DisplayPort ;)
Ergänzung ()

Die sollten mal auf Glasfaser umschwenken. Dann sind 1Tbit/s kein Problem und die Kabellänge spielt fast keine Rolle.
Und man kann neue Grafikkarten und Bildschirme verkaufen :evillol:
Solange es mit dem guten alten Kupferkabel noch geht, wird sich daran wohl auch nichts ändern. Dürfte immer noch günstiger sein. Ausserdem kann man die Kabel misshandeln und muss nicht so sehr aufpassen wie mit Glasfaser. Für den DAU Endkunden sicher die bessere Wahl :D
 
Dabei seit
Dez. 2005
Beiträge
2.289
#8
neue Schnittstellen , nützt nur nicht wenn die Hersteller trotzdem Ihre vga ,hdmi und dp 1.2 einbauen :freaky:
und die neusten Sachen einfach ignorieren.
 
Dabei seit
Aug. 2002
Beiträge
4.911
#9
In gewisser Weise ist es jetzt schon so. Wäre aber auch nach derzeitigem Stand nicht wirklich schlimm...
Jedes hersteller-spezische Format ist für den Kunden schlimm. G-Sync bringt dem Kunden nichts - gar nichts. Es kostet einfach nur zusätzliches Geld und schränkt den Kunden ein.

Warum sollte so etwas wie G-Port, also eine NVIDIA spezifische Schnittstelle zwischen Monitor und Grafikkarte für höhere Bandbreite "nicht schlimm" sein?

Manchmal glaube ich, dass die Kunden verarscht werden wollen... :freak:


neue Schnittstellen , nützt nur nicht wenn die Hersteller trotzdem Ihre vga ,hdmi und dp 1.2 einbauen :freaky:
und die neusten Sachen einfach ignorieren.
Bei den allermeisten Monitoren (60 Hz, FullHD) bringt DP 1.3 / 1.4 auch nichts. Warum sollen die Hersteller es dann verbauen für eventuelle Mehrkosten, die der Kunde dann bezahlt?
 
Zuletzt bearbeitet:
Dabei seit
Mai 2014
Beiträge
549
#10

public_agent

Cadet 4th Year
Dabei seit
Nov. 2015
Beiträge
78
#11
Mein Gott, wenn ich daran denke wie lange DVI "gehalten" hat. Die Produktzyklen solcher Anschlüsse gleichen sich auch immer mehr denen von Neuwagen an.
Und in 3 Jahren wird dann die Spezifikation 16k120 verabschiedet und ein Jahr später 32k240... SIC!
 
Dabei seit
Aug. 2002
Beiträge
4.911
#12
Kunden Bindung nennt man das .. erster Kurstag für Azubis... Und das wird knallhart überall durchgeführt in allen Produktbereichen.
Mir ist klar, warum ein Hersteller das macht. Aber warum soll ich das als Kunde "nicht schlimm" finden, wenn ich dadurch nur Nachteile habe? Im Gegenteil, hier im Forum verteidigen viele Nutzer so etwas noch.

Mein Gott, wenn ich daran denke wie lange DVI "gehalten" hat. Die Produktzyklen solcher Anschlüsse gleichen sich auch immer mehr denen von Neuwagen an.
Und in 3 Jahren wird dann die Spezifikation 16k120 verabschiedet und ein Jahr später 32k240... SIC!
Was wäre schlimm daran, in 3 Jahren eine Spezifikation für 16K120 zu haben? Mal ein Geheimnis: Der alte Standard funktioniert dann immer noch ;)
 
Zuletzt bearbeitet:
Dabei seit
Sep. 2009
Beiträge
9.155
#13
Warum macht man nicht gleich höhere Raten?
Und was bringt die schnellere Schnittstelle, wenn selbst neue Hardware 2-3fach hinterher hinkt?
Naja, besser so, als andersrum. Stellt euch vor, die Hardware ist soweit und es gibt keine Standards, die frei benutzbar sind. Dann fangen die Hersteller an, ihre eigenen Standards zu schaffen und das dann schlimmstenfalls mit Lizenzkosten zu versehen und inkompatibel den anderen Herstellern gegenüber zu machen.
Man muss man als Negativbeispiel nur wlan betrachten.

Da hat sich seit 802.11ac nichts mehr getan und jetzt fangen manche schon an mit höheren Modulationsdichten. Schau dir nur Broadcom mit NitroQAM an.
 

helionaut

Bisher: eremit007
Commander
Dabei seit
Jan. 2011
Beiträge
2.056
#14
Solange es mit dem guten alten Kupferkabel noch geht, wird sich daran wohl auch nichts ändern.
Wenn es nur noch mit verlustbehafteter Kompression geht, dann geht es eben nicht mehr. Und wenn man schon an der Grenze des physikalisch machbaren ist, dann wird die Kabelqualität eine noch grössere Rolle als heute schon spielen.
Wenn die Impedanz der Kabel bis x GHz eingehalten werden muss, dann sind sie auch nicht mehr unbedingt günstiger als Glasfaser.
 

Numrollen

Lt. Commander
Dabei seit
März 2008
Beiträge
1.466
#15
Ich schmeiss mal SATA 6GBit in den Raum. Die SSDs könnten schon deutlich schneller als diese 530mb/s... nun muss man für mehr Geschwindigkeit zwingend ein Board mit M2 sich besorgen und einen dollen Aufpreis für die gehäuselosen Speicherriegel hinlegen.
 
Dabei seit
Juni 2005
Beiträge
2.999
#16
Solange es mit dem guten alten Kupferkabel noch geht, wird sich daran wohl auch nichts ändern. Dürfte immer noch günstiger sein. Ausserdem kann man die Kabel misshandeln und muss nicht so sehr aufpassen wie mit Glasfaser. Für den DAU Endkunden sicher die bessere Wahl :D
Keine Ahnung wie steif und dick die 100 GBIT/s Ethernetkabel aus Kupfer ausfallen aber bei Kabellängen von unter 10m dürfte es technisch keine Notwendigkeit geben auf Glasfaser zu gehen.

Ansonsten, her mit der Bandbreite. :)

Am besten für Netzwerk und USB. :)
 
Dabei seit
Juni 2006
Beiträge
2.299
#17
Das liegt sicher nicht am Preis für ein Glas- vs. Kuperkabel sondern an der weiteren Technik (Stichwort Transceiver) die benötigt werden auf beiden Seiten. Das macht sicher etwas mehr aus als das Kabel an sich. Kabel müsste der Consumer ja eh extra kaufen, aber teure Technik im Monitor und in Grafikkarten würden sich direkt auf die Preise jener Niederschlagen. Würde sich doch keiner kaufen dann.
 
Dabei seit
Mai 2011
Beiträge
4.104
#18
8K ... es wird immer sinnloser !

Gibt es die neuen (und teuren!) Displays dann im Bundle mit einem paar neuer Augen, weil die "alten" diese Auflösung nicht mehr unterscheiden können?

Fragt mal euren Augenarzt, was euer Auge noch erkennen kann, und in welchem Abstand! Leider werden technische Neuerungen von vielen Redakteuren gar nicht hinterfragt. Statt kurz nachzudenken, wird die Pressemitteilung des Herstellers abgeschrieben. Bei der Optane hat CB zum Glück Praxistests gemacht und den fehlenden Nutzen aufgedeckt.
 
Zuletzt bearbeitet:
Dabei seit
Aug. 2002
Beiträge
4.911
#19
@HaZweiOh

Bevor du dem Redakteur hier irgendwas unterstellst, belege deine Aussagen doch einfach mit einer Quelle.

edit:
Das Auge selbst kann keine 8K auflösen - richtig. Das heißt aber nicht, dass es komplett sinnlos ist, ein 8K Bild zu haben, weil eben Abstand und Bildgröße dazukommt.

Alter Beitrag:
Das menschliche Auge hat ein deutlich höheres Auflösungsvermögen als 8K. Zumal der Abstand und die Bildschirmgröße ebenfalls eine Rolle spielen.
 
Zuletzt bearbeitet:
Dabei seit
Mai 2011
Beiträge
4.104
#20
Schon 4K ist im Wohnzimmer sinnlos, weil das Auge keinen Unterschied erkennt.
Und denk mal an die Nachteile, die eine Explosion bei der Auflösung mit sich bringt! Wenn das alles "kostenlos" zu haben wäre, könnte man wenigstens sagen "ok, schaden tut es auch nicht".
Das Problem ist, dass der Grenznutzen rapide sinkt!


Ich unterstelle den Redakteuren nichts, sondern beobachte, dass viele nur die Pressemitteilung abschreiben. Das bezieht sich aber nicht auf diesen Artikel. Das Beispiel Optane habe ich ja schon genannt.
 
Zuletzt bearbeitet:
Top