News Samsung: Erster 30-Zoll-TFT mit DisplayPort

@ moz: 2500 x 1600 macht 4 mille, außerdem schecke ich deine Rechnung irgendwie nicht
 
4 Mille sind 4 Tausend. Du meinst 4 Millionen.
 
ach ja meinte ich doch 4 Millionen
 
Falls man diesen schlechten HDMI-Stecker als zukünftige Schnittstelle auserkorren hat, ist das eine sehr schlechte Wahl. Die HDMI-Stecker und Buchsen sind einfach nur Müll, mechanisch sehr instabil und "billig", wer sich das ausgedacht und entwickelt hat, gehört ...

Ich habe so viel Ärger mit HDMI erlebt, da sind mir die alten VGA und DVI-Stecker viel lieber, da diese wenigstens stabil sind und mechanisch halten. HDMI muß nur ein bißchen wackeln, und schon kommt kein Signal zusammen, und die ganze (!!) Übertragung ist am Allerwertesten.
 
Schnapp dir einfach ein Paar Psychopilze . schmeiß sie ein , und dann sag und wie viele Farben der Mensch wirklich unterscheiden kann *fg*
 
Die Abbildung oben zeigt links einen HDMI-Stecker neben einem DVI-Stecker.
Ein Bild des DisplayPorts gibts hier: http://en.wikipedia.org/wiki/DisplayPort

Das Teil soll mechanisch stabiler sein und vorallem ja arretierbar sein.

@11: Die mittlere Belegung der Pins bei DVI ist für Duallink und hat nichts mit dem Kontrast zu tun: http://de.wikipedia.org/wiki/Digital_Visual_Interface
Nur wenn bei DVI alle Pins belegt und benutzt werden hat es die gleiche maximale Auflösung von 2560 x 1600 wie beim DiplayPort (wobei aber bei letzterem dabei 10 Bit anstatt 8 Bit pro Farbe zulassen sind).
 
Ist doch immer das gleiche, neue Anschlüsse sind schneller und dafür wackelig.
Pata --> Sata
IDE-Stromstecker --> Sata-Stromstecker
DVI --> HDMI

Warum können da nicht einfach weiterhin Schrauben dran sein?

Edit: Lese grade auf dem deutschen Wiki-Artikel zum DisplayPort: "Zudem ist im Gegensatz zum konkurrierenden HDMI-Stecker eine optionale Verriegelung vorgesehen."
Na immerhin :)


ähm, das Auge kann doch "nur" 16,7 Mio. Farben ("TrueColour") unterscheiden soweit ich das weis,
Nein, unser Auge schafft noch nicht mal 16,7 Millionen Farben, aber wie viel genau weiß ich auch nicht. Jedenfalls keine 16,7 Mio.

Muss man dann aber trotzdem noch ein USB-Kabel und ein Stromkabel zusätzlich anschliessen? Apple hatte mal vor Jahren den ADC-Anschluss. Nur ein Kabel: DVI, USB und Strom vereint. Sowas in der heutigen Zeit mit dem neuen Port wäre geil.
Musste da die Grafikkarte den Strom für den Bildschirm liefern? Sind immerhin ~50 bis 75 Watt...
 
Zuletzt bearbeitet:
Frage .. Wer braucht die Auflösung ????

für den Preis die das teil kostet bekomm ich nen Super FULL HD Beamer .. oder stell mir gleich 2 x 40 Zoll Plasmas/LCDs hin ..

ne ne sinnlos soviel Geld für mikrige 30 Zoll ^^ .. wo ist da der Sinn .. ??
 
*roll schrieb:
Sieht aus wie HDMI. kann nicht mehr, scheint genauso zu DVI kompatibel zu sein. Wieso nimmt man dann nicht einfach nur HDMI?
1. Weil HDMI eine Ausgeburt der Medienkonzerne ist, die damit ihren Content verschlüsseln (HDCP) - ansonsten könnte man auch DVI nehmen.
2. Weil der DisplayPort alles kann, was HDMI kann (auf Wunsch auch HDCP), mehr Bandbreite bietet, offfizieller Industriestandard ist und (wie hier im Thread schon erwähnt) eine bessere Befestigung laut Spezifikation möglich ist.

Ich möchte eine Frage aufgreifen, die hier im Thread schon aufgetaucht ist: Wann gibts Grafikkarten mit entsprechenden Anschlüssen? Schon mit den neuen Modellen im Winter (AMD sowie nVidia) oder erst später? Weiß da jemand was??
 
DeeWay schrieb:
Frage .. Wer braucht die Auflösung ????

für den Preis die das teil kostet bekomm ich nen Super FULL HD Beamer .. oder stell mir gleich 2 x 40 Zoll Plasmas/LCDs hin ..

ne ne sinnlos soviel Geld für mikrige 30 Zoll ^^ .. wo ist da der Sinn .. ??
Setz Dich mal davor und arbeite bzw. spiele damit, dann merkst Du den Sinn schnell ;).
Und selbst FullHD schafft keine 2560x1600!!
 
Das menschliche Auge kann nur 200 Farbtöne unterscheiden.

Mehr Farben dienen lediglich bei der Bearbeitung als Reserve. (Helligkeit, Kontrast ändern...)
Insgesamt kann das Auge knapp 20 Millionen Farben unterscheiden (Änderung der Intensität der 200 Farbtöne).

Aber 1 Milliarde Farben könnte man allerdings schon als überflüssig ansehen.

Zumal man nichtmal einen Unterschied zwischen TrueColor und High-Color sieht ... o.O

Quelle:
http://www.uni-mannheim.de/fakul/psycho/irtel/lehre/seminararbeiten/w96/Farbe/seminar.htm#Wieviele
http://www.werle.com/foto/foto2.htm
 
@32

Du bist aber echt blind, wenn du keinen Unterschied zwischen 16 und 32 bit erkennst. Ich seh das sofort...
 
wdragon schrieb:
Setz Dich mal davor und arbeite bzw. spiele damit, dann merkst Du den Sinn schnell ;).
Und selbst FullHD schafft keine 2560x1600!!

Deshalb ja ... um Filme in 1080p zu sehen brauch ich nicht so nen kleinen Monitor .. der das Bild dann auch noch auf seine native Auflösung rechnen muss ( was bringen 2560er Auflösung wenn es z.b. Filme nur in max 1920er Auflösung gibt :p )

2. ja schön Games in 2560er Auflösung zocken .. , wenn man nen paar tausend Euro hat für das System bitte .. aber ich glaube kaum das ich da nen Unterschied sehe zwischen sagen wir mal 1920er und 2560er .. vorallem nicht auf den "mini" Monitor ....

deshlab immernoch total sinnlose Auflösung für 30 Zoll .. ( kann man bei der Auflösung eigentlich nóch die DesktopIcons erkennen ^^ , die müssen ja mega klein sein ^^
 
30"... Meine Güte, da brauch ich nen breiteren Schreibtisch, wenn ich weiter mit zwei Monitoren arbeiten will...

Wie ist das eigentlich jetzt mit HDCP, ist da sowas standardmäßig mit drin, oder muss ich mir dann weiterhin HD-Filme von BR in verminderter Quali auf großem Screen antun?
 
@16 (MoZ)
2500*1600 = 4 Millionen
1,07 Mrd farben = 2^30 Farben (10 bit/Kanal)
also wird ein Pixel durch 4.000.000 * 30 bit kodiert
Bei 60 Hz sind das dann insgesamt 7,2 Gbit/Sekunde, also ca. 6,7 Gibit/Sekunde
(1Gbit = 10^9 bit, 1Gibit = 2^30 bit)
 
DeeWay schrieb:
Deshalb ja ... um Filme in 1080p zu sehen brauch ich nicht so nen kleinen Monitor .. der das Bild dann auch noch auf seine native Auflösung rechnen muss ( was bringen 2560er Auflösung wenn es z.b. Filme nur in max 1920er Auflösung gibt :p )
Und, wer so einen Monitor kauft, der will doch damit keine Filme schauen. :rolleyes:

DeeWay schrieb:
2. ja schön Games in 2560er Auflösung zocken .. , wenn man nen paar tausend Euro hat für das System bitte .. aber ich glaube kaum das ich da nen Unterschied sehe zwischen sagen wir mal 1920er und 2560er .. vorallem nicht auf den "mini" Monitor ....
Doch, man sieht ihn!

DeeWay schrieb:
deshlab immernoch total sinnlose Auflösung für 30 Zoll .. ( kann man bei der Auflösung eigentlich nóch die DesktopIcons erkennen ^^ , die müssen ja mega klein sein ^^
Wieso sinnlos? Das hört sich eher nach Neid der Besitzlosen an. Mit 2560 in der Breite kannst Du PDF-Kataloge 2-Seitig lesen. Du kannst beispielsweise für Projektarbeiten oder Präsentationen direkt 2-seitig arbeiten (links die Anwendung, rechts den Browser für copy& paste. Die Übersicht insgesamt ist viel besser, weil man auch für Programmierung wie Eclipse viel mehr Platz hat, und man nicht ständig zwischen den Programmen switchen muß. Und für Videobearbeitung oder Audiobearbeitung a la Cubase (mit den zig Fenstern) ist es ein Traum. Und ja, man kann die Icons sehr gut erkennen, die sind genau so groß wie bei einem 19", nur wirkt es beim erstem Mal kleiner, da die Fläche viel größer ist. Und ja, ich arbeite mit allem, was ich sagte.

Wers mal sehen will

http://www.line6forum.com/phpBB2/viewtopic.php?t=5527
 
Mit einer Dual Link DVI fähigen Grafikkarte sind über ein DVI Kabel 2560x1600 pixel möglich, mit gekoppelten DVI Dual Link 3840x2400, jedoch würde mich interessieren bei wieviel Farben? die meisten aktuellen Grafikkarten beherschen durchaus Dual Link DVI.

Somit ist der DVI Anschluss für die meisten Anwender noch mit reserven ausgelegt, jedoch spricht für mich nichts gegen einen einheitlichen Standard, der vor allem die reserven für die zukunft bereithält ohne zwei Kabel nutzen zu müssen und mehr Farbbandbreite zulässt.

Viel interessanter wäre, ob der Display Port zu HDMI Kompatibel (Bauform?) ist und man so die Grafikkarte (vorzugsweise HDCP fähig) an einen HD Fernseher anschließt und zB. mit geeigneten Laufwerk HD Medien abspielt und so nicht DVI zu HDMI Adapter benötigt bzw. einen HDMI Anschluss an der Grafikkarte. Übrigens, der HDMI 1.3 Standard hat etwa die gleiche max. Datenrate, somit sind die standards doch so gut wie identisch?


@Stampfi82

mag ja sein, dass das Menschliche Auge nur eine bestimmte Anzahl an Farben wahrnimmt, jedoch sehe ich auf jeden halbwegs ordentlichen Monitor den Unteschied zwischen 16bit High und 32bit True Color (Einstellung in Windows bzw. Treiber), ob bei Bildern oder den Farbübergängen an den Desktop Icons oder bei älteren Games welche beides anboten.
Intern Arbeiten aktuelle Grafikkarten übrigens mit bis zu 128bit Genauigkeit um Farbfehler bei der berechnung zu vermeiden, so ist das Ausgangsbild trotz 32bit genauer, daher sind 32bit zwar ausreichend, jedoch nur wenn die Farbwerte intern sehr genau berechnet wurden, zB. das FP32 Rendering mit 32bit pro Kanal in Games.
 
Zuletzt bearbeitet:
Zurück
Oben