News DisplayPort 1.5: Mindestens 64,8 Gigabit/s für unkomprimiertes 8K60

eremit007 schrieb:
Die sollten mal auf Glasfaser umschwenken. Dann sind 1Tbit/s kein Problem und die Kabellänge spielt fast keine Rolle.

1 Tbit/s pro Faser? Nein.
5€ pro Kabel? Nein. Häng mal lieber noch vier Nullen dran.

Manche Menschen...

Wattwanderer schrieb:
Keine Ahnung wie steif und dick die 100 GBIT/s Ethernetkabel aus Kupfer ausfallen aber bei Kabellängen von unter 10m dürfte es technisch keine Notwendigkeit geben auf Glasfaser zu gehen.

Ich hoffe du bist kein Netzwerker.
Es ist halt Ethernet und nicht für Bildübertragung gedacht.
 
Zuletzt bearbeitet:
HaZweiOh schrieb:
Schon 4K ist im Wohnzimmer sinnlos, weil das Auge keinen Unterschied erkennt.

Und denk mal an die Nachteile, die eine Explosion bei der Auflösung mit sich bringt!

Da möchte ich dir widersprechen. Bei Bildern mit sehr vielen Details (zum Beispiel eine Skyline mit vielen Häusern, Fenstern, unterschiedlichen Beleuchtungen) sehe ich sehr wohl einen Unterschied zwischen FullHD und 4K.
Natürlich muss das Verhältnis zwischen Abstand und Bildgröße stimmen.
Die Experten, die sich einen 50 Zoll Fernseher in 4 Meter Entfernung hinstellen - da ist der Unterschied wirklich nicht/kaum zu erkennen.

Ein 8K60 Standard macht zum Beispiel bei großen Werbeleinwänden Sinn - würdest du da vielleicht zustimmen?

Und welche Nachteile meinst du mit der Explosion?
 
Zuletzt bearbeitet:
Samsung hat ja ein Techdemo auf der CES.

Man tapeziert eine ganze Wand mit einem Display. Dann kann man sich Einstellen ob es ein 40" TV darstellen soll oder doch lieber ein 65" Gerät. Auf der ungenutzten Fläche kann man wahlweise ein Fenster, ein Bild etc. anzeigen lassen. Dafür kann man nicht genug Pixel haben. Leider bleibt das wohl noch sehr lange Zeit teuer.
 
Wattwanderer schrieb:
Man tapeziert eine ganze Wand mit einem Display. Dann kann man sich Einstellen ob es ein 40" TV darstellen soll oder doch lieber ein 65" Gerät.

Du hast aber kleine Wände... :evillol:

Ich denke da eher an 100 Zoll und mehr. Ist die Techdemo wirklich nur mit 40 und 65 Zoll? Hast du einen Link? :)
 
Wechhe schrieb:
Die Experten, die sich einen 50 Zoll Fernseher in 4 Meter Entfernung hinstellen - da ist der Unterschied wirklich nicht/kaum zu erkennen.

Es werden auch 40" 4K für 4 Meter gekauft. Den Konsumenten kann man es kaum verübeln, wenn sie weder in Tests noch vom Mediamarkt-Verkäufer seriös informiert wurden.

Ein 8K60 Standard macht zum Beispiel bei großen Werbeleinwänden Sinn - würdest du da vielleicht zustimmen?
Mit Werbeleinwänden habe ich mich nicht beschäftigt, aber bei der Entfernung?

Und welche Nachteile meinst du mit der Explosion?
Unter anderem die Kosten für immer monströsere Grafikkarten, immer neue Endgeräte sowie den Ressourcen-Verbrauch.
 
Zuletzt bearbeitet:
Wechhe schrieb:
Ein 8K60 Standard macht zum Beispiel bei großen Werbeleinwänden Sinn - würdest du da vielleicht zustimmen?
Gerade da eher kaum, weil große Werbeflächen in der Regel aus großer Entfernung angesehen werden.
Ergänzung ()

Wechhe schrieb:
Da möchte ich dir widersprechen. Bei Bildern mit sehr vielen Details (zum Beispiel eine Skyline mit vielen Häusern, Fenstern, unterschiedlichen Beleuchtungen) sehe ich sehr wohl einen Unterschied zwischen FullHD und 4K.
Dazu ne Frage:
Siehst du das nur im direkten Vergleich, oder fällt dir das ohne zu wissen ob es gerade 4k oder FullHD ist auf?
Man muss ja schon recht nahe vor der Glotze sitzen, um das theoretisch sehen zu können.

Hier ist mal sone Tabelle abgebildet:
http://www.chip.de/artikel/TV-Tipps-Der-optimale-Sitzabstand-zum-Fernseher_43008461.html

Für 8k hieße das vermutlich, dass man von einem 60" TV noch max. 60cm entfernt sitzen darf, um noch eine Chance auf einen sichtbaren Unterschied zu haben :D
 
Zuletzt bearbeitet:
HaZweiOh schrieb:
Den Konsumenten kann man es kaum verübeln, wenn sie weder durch Tests noch durch den Mediamarkt-Verkäufer seriös aufgeklärt wurden.

In Deutschland ist man mit 18 Jahren volljährig und für das eigene Handeln 100% selbst verantwortlich.
Es kann gar nicht sein, dass einem ein Test oder MM-Verkäufer etwas aufschwatz, außer man ist denkfaul.

Schade, dass es hier bei Ewiggestrigen-Base so viele Nörgler gibt, wenn man technischer Fortschritt stattfindet.
Ich bin zumindest froh, nach Jahrzehnten Pixelbrei an 2x24 4K Monitoren arbeiten zu dürfen.
Auf 8K freue ich mich auch schon. Könnte mir vorstellen dann nur noch einen 32"-40" Monitor zu nutzen.
 
Kantico schrieb:
Es kann gar nicht sein, dass einem ein Test oder MM-Verkäufer etwas aufschwatzt
Ich kritisiere nur schlecht gemachte Tests, für die kann der normale Konsument nichts. Woher soll er's denn wissen?
 
Zuletzt bearbeitet:
Cr4y schrieb:
Siehst du das nur im direkten Vergleich, oder fällt dir das ohne zu wissen ob es gerade 4k oder FullHD ist auf?

Gute Frage. Wie es bei Spielekindern so üblich ist verfalle ich häufig in das Muster, schneller, höher, größer aber wenn ich mal zum Nachdenken komme frage ich mich will ich 4K?

Die matschigen PAL mag ich gar nicht mehr sehen aber schon bei 720P muss ich schon genauer hinsehen, um einen Unterschied zu 2K zu erkennen.

Kann jemand mit 4K sagen ob sich der Sprung von 2K gelohnt hat?
 
Find es schon richtig, dass die mal in die Vollen gehen, allerdings gerne in weniger kleinen Schritten.

Die Situation bis vor kurzem war einfach unbefriedigend: Die erste Generation 4K-TVs kam noch mit HDMI1.4b, wo dann nur 4K@30Hz geht. Erst mit HDMI2.0 ging dann 4K@60Hz, aber immernoch nur mit Chromasubsampling, außerdem musste HDR etc. mit HDMI2.0a/b nachgereicht werden und so mancher HDMI2.0-Port der ersten Stunde hatte kein HDCP2.2 und war damit für UHD quasi unbrauchbar.
DP1.2 war hier besser aufgestellt, dafür hat man DP1.3 und DP1.4 so schnell hintereinander rausgeschossen, das DP1.3 kaum wirklich auf dem Markt erschienen ist.
Ich gebe aber den Vorrednern recht, es ist mal wieder typisch Intel-Monopol, dass aktuell bei Kaby und Coffeelake zwar HDCP2.2 vorhanden sind, aber immernoch nur HDMI1.4b und DP1.2, so dass HDMI2.0 nachwievor über aktive Konverter hergestellt werden muss.
 
8K 240 Hz stelle ich mir 2020 als Standard Gaming Monitor jetzt schon vor.

Was will ich mit 60 Hz?
 
Wattwanderer schrieb:
Kann jemand mit 4K sagen ob sich der Sprung von 2K gelohnt hat?

Würde mich auch interessieren :)
 
Wattwanderer schrieb:
Kann jemand mit 4K sagen ob sich der Sprung von 2K gelohnt hat?
M4deman schrieb:
Würde mich auch interessieren :)

Eindeutig ja. Ich bin von zwei mal Full HD (bzw. 1x 1920x1200) auf 2x 4k umgestiegen. Für mich ist der Qualitätsgewinn sehr hoch und ich würde nicht mehr zurückwollen. Ich sehe auch täglich den Unterschied, da ich bei der Arbeit weiterhin 2x FullHD habe. Aber wie immer ist es recht subjektiv und ich weiß von mir, dass ich unterschiedliche Auflösung recht stark bemerke. Bei Spielen hilft es vor allem auch ordentlich gegen Flimmern.

Aus dem Bauch raus würde ich sagen, dass 4k + Downsampling von 8k oder 8k dann ausreichend ist, sodass man nach oben hin kaum noch Unterschiede bemerkt (bei 27").

lg Kinman
 
Gut so. Sollen den Standard nur mal weiter treiben.

Leider steck ich dank der R9-290 noch auf DP1.2 fest :( Reicht nicht für 3840x1080 HDR 10bit 144hz, nur 120hz sind möglich. Aber der Monitor kann DP1.3, also mit der nächsten Graka wirds möglich.


eremit007 schrieb:
Die sollten mal auf Glasfaser umschwenken. Dann sind 1Tbit/s kein Problem und die Kabellänge spielt fast keine Rolle.
Nein Danke, die DP und HDMI Kabel in hoher qualität sind jetzt schon teuer genug....
Die können ruhig noch ein weilchen warten mit Glasfaser Kabel.
Wobei optische Toslink Kabel nun nicht so teuer sin.

digitalangel18 schrieb:
Das machen dann die Kabelhersteller. "Kauft unser neues Kabel, das kann 8K und zusätzlich Kaffee kochen!!!11" - wobei ein älteres vielleicht gereicht hätte. Ist jetzt aber auch nicht die Schuld vom DisplayPort ;)
Das erinnert mich an das Audioquest Diamond HDMI Kabel xD
 
gaym0r schrieb:
1 Tbit/s pro Faser? Nein.
5€ pro Kabel? Nein. Häng mal lieber noch vier Nullen dran.

Manche Menschen...

Ich hoffe du bist kein Netzwerker.
Es ist halt Ethernet und nicht für Bildübertragung gedacht.

Ich muss dem aber auch wiedersprechen,
denn wenn man auf experimenteller Ebene schon 19.200Gigabit Pro sekunde hinbekommt ist es unter Garantie möglich dagegen noch müde aussehende 1Tbit zu übertragen.

Bei Glasfaser gäbe es nur andere Probleme.
Zum Beispiel Kabelfestigkeit (ja Polymere brechen auch und das deutlich schneller als Kupferlitzen).

Der Stecker muss auch auf dem Grafikboard untergebracht werden und nimmt platz in Anspruch demnach ist das auch eher so schlecht als recht.

Dann ging das auch weiter generell mit Platz,
hierzu müsste ein vollkommen neues System entwickelt werden denn sowas hat es noch nicht gegeben meine ich das würde nochmals Modulation und und und nach sich ziehen.

Insgesamt ist das ganze sowieso eine Kosten/ Nutzen Investition und demnach fällt hier Glasfaser komplett raus.

Achso und son Glasfaserkabel kost weniger als ein Kupferkabel allein der Schirmungsaufwand der mit Kupfer verbunden ist steigert die Produktionskosten nochmal um einiges pro Meter.

Würd sagen wer im Glashaus sitzt sollte nicht mit Steinen werfen, aber naja nicht mein Bier macht ma Kinnas...
 
die HDMI Kabel z.b. von Amazon sind auch schon ganz schön dicke klopper und sehr unflexibel. Hatte aber noch kein DP Kabel in der Hand.
 
Unglaublich, wie ComputerBase aktuell von Fortschrittsverweigerern und Dunning-Kruger-Effekt-Bestätigern überrannt wird :rolleyes:

Erst einmal: Doch, ein Unterschied zwischen FullHD (2k) und UHD (4k) ist sehr deutlich sichtbar, auch bei "normalem" Abstand zum Fernseher. Wer das nicht sieht, sitzt entweder in einem sehr fragwürdigen Abstand zur Bildfläche, oder sollte dringend zum Augenarzt! Und nein, Actionfilme mit ultraschnellen verschwommenen Bewegungen zählen hier nicht als Begründung ;)

Des Weiteren: Auch 8k bringt Vorteile gegenüber 4k. Bildflächen werden immer größer, teilweise mittlerweile bereits gebogen. Das Sichtfeld wird immer weiter ausgeschöpft, die Anforderungen an den Bildschirm steigen somit. Dank der großen Bildflächen wird man ins Geschehen immer weiter integriert. Man schaut nicht mehr auf ein kleines Bildchen in der Mitte des Sichtfeldes, sondern umgekehrt: Man sieht lediglich einen Teil des Bildes und muss seinen Kopf bewegen, um den Rest zu sehen. Genau dafür ist 8k! Die Bildflächen werden größer, der Bildabstand aber nicht. Um etwa die gleiche Pixeldichte beizubehalten, muss die Auflösung folglich vergrößert werden. Ganz einfach.

Und erzählt mal einem Content-Creator, die Auflösung wäre sinnlos... :)

Bei manchen Menschen wünschte ich mir, sie wären dazu in der Lage, über ihren eigenen Tellerrand hinwegzublicken :rolleyes:

Mal so ganz nebenbei: Ihr müsst es ja nicht kaufen. Im Gegenteil, die alten Standards werden durch die Neuen billiger und letztere sind zudem auch abwärtskompatibel. Wo liegt also das Problem?
 
Zurück
Oben