News Erstes TFT für USB-Anschluss von Samsung

nen bitmap (also umkomprimiert bei 32bit) hat bei meinem screen (1280*800) ne größe von etwa 3mb...bei 60 frames die sekunden wären das 180mb...nen usb-anschluss schafft aber nur 480mbit maximal /8 = 60mb - in der theorie...praktisch sind es wohl 40 bis 50mb...also müsste ein bild schon um den faktor 3 bis 4 komprimiert werden.

für office-anwendung macht das wohl kaum einen unterschied wenn nur jedes 3te bild wirklich gesendet wird...bei fimen könnte es da aber schon problematisch werden...also bleibt nur der umweg über eine komprimerung

*die gedanken des vorredners mal weitergedacht hab*

davon dass sie unkomprimiert versendet werden steht in den news nichts...nur dass sie direkt aus dem hauptspeicher kommen.
und da kommt das 2d bild auch bei nem "normalen" bildschirm her *gg*
 
nun eine bitmap (du meinst doch diese .bmp ?) sind schon etwas komprimiert ... denn sonst hättest du:

1280 x 1024 x 32 x 60 = 2516 x 10^6 bit = 314 x 10^6 byte also 314 megabytes / sekunde

-gb-
 
Naja, nun nicht wirklich so spannend, eher zur Vereinfachung von mehreren Monitoren.
2Monitore gehen Problemlos an so fast jede Grafikkarte, mit voller Leistung.

Wer mehr will, und einem den 2D Desktop reicht, der baut sich ne relativ alte pci-grafikkarte ein oder auch mehrere und schließt den rest der Monitore dran.
Ich hatte schon 4 dran, ist also nicht wirklich so das problem, ausser das es wohl mit USB etwas weniger arbeit ist :)
 
Man muss ja nur dem Monitor sagen: "Pixel (x,y) hat sich geändert...". Solange man das komplette Bild nicht umschaltet und dass mit mehr als 25Hz, sollte die Datenrate überschaubar bleiben. So würde ich das machen - das ist ja auch das Prinzip von einigen Kompressionsverfahren etc. ...

Es ist ja nicht nötig, wie bei einem CRT ununterbrochen jeden Punkt neu zu beschreiben, da der TFT ein hold-Typ ist ;)
 
ja aber in der news steht, dass videos flüssig und gut wiedergegeben werden - und da müssen doch sehr schnell viele pixel geändert werden.

-gb-
 
Hmm... funktionieren die Videos nicht auch so, dass nur die Änderungen gesendet werden?
 
gustl87 schrieb:
nun eine bitmap (du meinst doch diese .bmp ?) sind schon etwas komprimiert ... denn sonst hättest du: [...]314 megabytes / sekunde
Windows Bitmap (.bmp) ist ein (i.d.R.) kompressionsfreies Dateiformat, deine Rechnung geht von der falschen Annahme aus, daß ein BMP 32bit Farbtiefe hat.

greetings, Keita
 
ok gut mein fehler dann hat eine .bmp eben keine 32 bit farbtiefe (gibt aber auch welche mit 32 bit) - aber der monitor hat schon 32 oder (ja auch da kann man weniger einstellen aber normalerweise sind es unter einem aktuellen windows 32 bit)?

das mit der farbtiefe hatte ich schon unter 1. in post nummer 20 (seite 1) abgehandelt ...

-gb-
 
Nein, Windows Bitmaps haben eine max. Farbtiefe von 24 bit, da es nur drei Farbkanäle mit je 8 bit gibt. welchen Farbraum der Monitor darstellen kann, hängt von seiner Elektronik ab, ferner muß die Grafikkarte diesen Farbraum unterstützen. Gängig sind auch hier 24 bit (wieder RGB mit je 8 bit), manche Grafikkarte-Monitor-Gespanne sind jedoch in der Lage 30 oder 36 bit Farbräume wiederzugeben, allerdings kosten sie dann ab 2k EUR aufwärts.

greetings, Keita
 
und warum zeigt mir dann windows immer 32 bit farbqualität an ? (ist jetzt eine verständnisfrage weil ich immer dachte dass da ein 32 bit farbwert an den monitor geschickt wird - dass der das meist nicht voll anzeigt, panelbedingt, ist wieder etwas anderes)

rechtsklick auf den desktop > eigenschaften > einstellungen

edit:
http://de.wikipedia.org/wiki/Windows_Bitmap (ich wusste doch, dass ich da schon mal 32bit bmp dateien hatte ...)

-gb-
 
Zuletzt bearbeitet:
Ah, daher hast du die 32 bit... *pling* :) Früher stand dort auch mal gerne "24 bit" (ich meine bei den Treibern meiner seligen Diamond Stealth 64 von anno dunnemals...), korrekt sind jedoch beide Werte.

Auch wenn der Farbraum 24 bit beträgt (eben die drei Farbkanäle RGB mit jeweils 8 bit), werden die Daten auf 32 bit "aufgeblasen", die eigentlich überflüssigen 8 bit sind also schlicht Füllbits (padding).

Der Sinn und Zweck des ganze ist die Anpassung der Daten an die Busbreite der Hardware, die üblicherweise eine zweier Potenz ist, also 1, 2, 4, 8, 16 usw. bit. Würde man über eine Leitung mit 32 bit Breite Daten mit 24 bit Breite schicken, hätte man einen Rest von 8 bit, die entweder sinnfrei gefüllt werden müßten, damit die 32 bit voll sind oder man schickt die ersten 8 bit der nächsten 32 bit auf die Reise, die restlichen 16 bit gehen dann im Anschluß los. Da dann aber 16 bit fehlen, damit die 32 bit voll sind, müßten vom dritten Paket 16 bit entnommen werden, die restlichen 8 bit... usw. usf.
Das ganze ist mit deutlich mehr Aufwand verbunden als die nicht genutzten 8 bit mit "nichts" zu füllen, denn die Datenpakete müßten nicht nur auseinanderklamüsiert werden, sondern auf der Gegenseite wieder zusammen gesetzt werden. Da das Grafik(sub)system des Betriebssystems möglichst performant arbeiten soll, füllt man das 24 bit tiefe Bild mit 8 Füllbits auf und schickt die Bilder so wie sie sind durch die Gegend, daher steht in den Eigenschaften meistens "true color (32 bit)".

greetings, Keita
 
danke ! und unter unix betriebsystemen steht auch heute noch sehr oft 24bit.

aber egal ob jetzt 32 oder 24 bit - beides passt als rohe bitmap nicht durch den usb-bus - und schon gleich garnicht, wenn da mehrere monitore dranhängen und vielleicht noch ne externe platte etc. ...

dass immer nur die veränderten pixel übertragen werden klingt schlau (wäre auch ein grund warum schnelle 3d spiele wegfallen würden - aber das ist wohl eher weil die gpu umgangen wird).
allerdings bleibt es weiterhin seltsam warum videos liefen.

wahrscheinlich nur in einem kleinem fenster ...

-gb-
 
Vorallem frage ich mich, wie das bei sechs über USB angeschlossenen Displays funktionieren soll... wenn alle Displays das gleiche Bild wiedergeben, klingt es noch nachvollziehbar, aber wenn es sich um sechs unabhängige Geräte aus der Sicht des Betriebssystems handeln würde, wie man es von multi display-Lösungen erwarten würde...

greetings, Keita
 
Ich find die Entwicklung geht in die gute Richtung.
Denn ich bin nicht so ein Freund von dieser Maxtor Bildschirm Teiler oder wie dies auch heisst.
Wen dieser Monitor nun endlich auch 3D Anwendungen kann ist dies ja Perfekt, denn ich hätte am liebsten 3 Bildschirme neben einandere, denn bei zwei sieht es blöd aus da ich keine in der Mitte habe.
 
Verwirrter schrieb:
@8: es geht alles wofür man keine grafikkarte braucht - deswegen fallen 3d-anwendungen weg



:freak: Autsch, da war Dein Nick bei mir Programm. Danke.
 
Zurück
Oben