News Samsung-Monitor bezieht Strom über USB

MrEisbaer schrieb:
Hast du den Monitor schon im Betrieb gesehen? nein? anscheinend doch, da du weißt wie dessen Bildquali ist.
Zumal müssen sich Green-IT & gutes Bild nicht ausschließen, aber da scheint bei dir die Sicherung [zu] fehlen, damit die Glühbirne leuchtet.

Ein wenig mehr Rücksicht bei deinen Formulierungen würde ich sehr begrüßen.

Ich schrieb generell von den vergleichsweise eher minderwertigen TN-Panels, die durch den Green-IT-Hype, also meistens extrem leuchtschwache Hintergrundbeleuchtungen (CCFL/LED) ein noch "schlechteres" Bild liefern als mit einer leistungsstärkeren Beleuchtung.

Natürlich kenne ich den Monitor in der News nicht -- Zusammenhänge lassen sich aus technischer Sicht trotzdem machen, auch ohne deine "Sicherungen". Das Rad kann man genauso wenig neu erfinden wie die TN-Technologie.
 
.fF schrieb:
Und wieviel mehr Strom zieht die CPU, die die Bilddaten für USB stark komprimieren muss? (Stichwort Display Link)

Grüße,
.fF

gar nichts, da der monitor weiterhin per hdmi angesteuert wird und nur der strom via usb kommt.
 
jurrasstoil schrieb:
"Edele" HDMI Kabel sind sowieso der amüsanteste Nepp aller Zeiten. Es ist ein digitales Signal. Also entweder es kommt an oder nicht. Die Qualität des Kabels wird an der gelieferten Bildqualität nichts ändern können, weder in die eine noch die andere Richtung. Die Gewinnmargen bei den teureren HDMI Kabeln sind so unfassbar astronomisch, dass mag man gar nicht ausrechnen :D

Diese Aussage kann ich getrost wiederlegen.
Ich hatte zu Anfang ein 10 Meter langes HDMI Kabel für 20 Euro gekauft, habe Bild und Ton bekommen, leider inklusive Bildfehler.
Später habe ich mir ein teures für 70 gekauft, seitdem habe ich nicht nur keine Bildfehler mehr, sondern zudem ist es generell schärfer geworden.
 
jurrasstoil schrieb:
"Edele" HDMI Kabel sind sowieso der amüsanteste Nepp aller Zeiten. Es ist ein digitales Signal. Also entweder es kommt an oder nicht. Die Qualität des Kabels wird an der gelieferten Bildqualität nichts ändern können, weder in die eine noch die andere Richtung. Die Gewinnmargen bei den teureren HDMI Kabeln sind so unfassbar astronomisch, dass mag man gar nicht ausrechnen :D

Auch wenn das Signal Digital übertragen wird heist es noch lange nicht das das Kabel keinen Einfluss auf die Qualität des Signals hat. Besonders bei der hohen Datenrate (Frequenz) die ein HDMI Signal braucht muss das Kabel natürlich eine gewisse Mindestqualität besitzen damit ein sauberes Signal ankommt. Ab einen gewissen Punkt ist der Mehrpreis bei den High End Kabeln nicht mehr gerechtfertigt, aber das heist noch lange nicht das ein jedes 08/15 Kabel genauso seinen Dienst tut.

Die Stromversorgung über USB finde ich unsinnig, denn ob jetzt statt einen Netzkabel ein USB Kabel zum Monitor geht ändert an der Sache auch nichts. In jeden Fall habe ich 2 Kabel und zusätzlich opfere ich dafür 2 USB Ports.

Eine Stromversorgung über HDMI wäre da schon sinnvoller.
 
Tronx schrieb:
qBic@ was hat bitte die Abschirmung (bei Digitaler Übertragung) mit Bildqualität zu tun? So langsam aber sicher sollte dieser Mythos mal fallen. Was du wohl meintest ist eine "Unterbrechung oder Klotzbildung" dann kommen nicht die geforderten Bitreihenfolgen am Empfänger an, aber durch ein billigeres Kabel hast du kein schlechteres Bild wenn das Bild stabil ist! Und wenn schon ohne anstehendes Signal, Bildrauschen am TV etc hast, dann hast du ein ganz anderes Problem.

Ich möchte nicht so wirken als ob ich alles besser wissen würde.
Erkläre mir dann aber bitte technisch gesehen, warum ich beim billigen Kabel Pixelfehler in weißen und schwarzen Bereichen hatte, die ich mit dem teuren Kabel nicht mehr habe.
Meines Wissens nach resultiert gerade aus der ungenügenden Abschirmung eine Störung der Datenleitungen, woraufhin sich die Bits verändern weil sich die elektromagnetischen Felder der Leitungen gegenseitig behindern.

Wenn dem nicht so ist, bitte ich um Erklärung dieser Tatsache oder einen Link wo es erklärt wird.
Will schließlich keinen Schund erzählen.
 
In der News bzw. auf dem Bild steht doch (zwar auf einglisch, aber vielleichts verstehts ja trotzdem jemand
973.gif
): Only USB Line. Wieso schreiben dann manche, dass einfach das Stromkabel gegen ein USB Y-Kabel geauscht wird? Das Bild scheint dann ja auch über USB zu kommen, also ist es nur noch ein KAbel das vom Monitor weggeht.
So verstehe ich diese News zumindest.
 
Zuletzt bearbeitet:
qBiC schrieb:
Ich würde grundlegend behaupten, dass ein HDMI-Kabel mit integrierte Stromleitung aus wirtschaftlichen Gründen nicht rentabel ist. Seht euch doch mal die Preise an. Ein halbswegs ordentliches HDMI-Kabel mit 2-5m Länge kostet schon rund 50 Euro. Billige Kabel funktionieren zwar auch, liefern aber aufgrund der schwachbrüstigen Abschirmung (irgendwo muss ja gespart werden) keine gute Bildqualität.
Entweder die Binärdaten kommen 1:1 an oder nicht, wenn Sie ankommen verbessert kein Kabel der Welt mehr deine Bildqualität

qBiC schrieb:
Diese Aussage kann ich getrost wiederlegen.
Ich hatte zu Anfang ein 10 Meter langes HDMI Kabel für 20 Euro gekauft, habe Bild und Ton bekommen, leider inklusive Bildfehler.
Später habe ich mir ein teures für 70 gekauft, seitdem habe ich nicht nur keine Bildfehler mehr, sondern zudem ist es generell schärfer geworden.
Bildfehler ergibt Sinn, dann gabs halt Übertragungsfehler. 10m ist für HDMI auch grenzwertig, bei 1 oder 2 Meter fällt das nicht so ins Gewicht.
Das schärfere Bild klingt ziemlich abwegig, evtl. trübt dich dein Eindruck einfach wenn das erste Fehler verursacht hat oder liefen die Geräte da mit ner anderen Auflösung ? Evtl. gibts ja Geräte mit ner Auto-Erkennung oder sowas.

@Topic:
Ich zweifel etwas an dem Einsatzgebiet, lokale Geräte brauchen eh in der Regel Strom (ergo ne Steckdose) und unterwegs am Netbook wird kaum einer nen Monitor anschließen der Die Akku-Laufzeit auch noch halbiert.
Schade finde ich auch dass da nicht direkt ne Art USB-Graka (z.B. mit DXVA-Support) drin ist, dann würde das mit USB ja noch nen Sinn haben.
 
GEIL! Das kann mal was!

Hoffe, dass das zum Standard wird, dass Monitore den Strom über den PC beziehen! Ein Monitor mit KombiKabel ("VGA"+Strom) welches an die 12V vom PC-Netzteil gehängt wird würde mir aber auch schon reichen. Das wär schon ein Transformator, eine Gleichrichterbrücke und eine "Glätteinheit" (Kondensator) weniger. Da auf dem Kabel wohl max. 1,5A fließen, könnte es auch sehr dünn sein und würde das Monitorkabel kaum merkbar dicker machen.

MFG, Thomas
 
Blutschlumpf schrieb:
Das schärfere Bild klingt ziemlich abwegig, evtl. trübt dich dein Eindruck einfach wenn das erste Fehler verursacht hat oder liefen die Geräte da mit ner anderen Auflösung ? Evtl. gibts ja Geräte mit ner Auto-Erkennung oder sowas.

Das Geräte lief immer mit der selben Auflösung (1920x1080).
Habe die beiden Kabel auch miteinander verglichen, mir kam es wirklich so vor, dass das Bild nicht so schwammig wirkte. Keine Ahnung, vielleicht habe ich das auch nur Aufgrund des hohen Preises so sehen wollen. Naja Kabel hin oder her, die Pixelfehler sind weg und das genügt mir auch schon.
 
Genau sowas suche ich, nur in kleiner (vllt 12"?) für mein Notebook zum dranstöpseln und zusatzanwendungen wie Browser, Chatprogramm etc. drauf laufen lassen, während man spielt, oder Film guckt, oder um auch mal z.B die Bedieneinheiten von Gimp auszulagern.
 
Wenn man sich gleich ein NT sparen kann lohnt sich das natürlich immer stark.
 
coupefx2 schrieb:
So ein Quatsch:lol: .... Die Bildfehler sind durch das hochwertige Kabel vielleicht verschwunden schärfer geworden ist das Bild aber nicht. Das ist keine Subjektive Auffassung unsererseits sondern eine ganz Objektive Tatsache -> http://www.hifi-regler.de/hdmi/hdmi.php?SID=324e912fe1582d92262e3b347e27f25a

Volle Zustimmung. Bei Netzwerkkabeln kommt doch auch niemand auf die Idee ein 100€ Kabel zu kaufen. Die Telefonleitungen haben auch nur einen winzigen Querschnitt und laufen im Haus ziemlich ungeschirmt, und trotzdem funktioniert so ein Internetanschluss. Einzelne Bits die durch schlechte Abschirmung kippen sind auch kein Problem, das erledigt die Fehlerkorrektur.
Bei Analogen Signalen (Lautsprecherkabeln z.B.) sieht die Geschichte natürlich ganz anders aus, irgendwie hat die Hifi-Industrie es geschafft solche Mythen bei HDMI Kabeln in die Köpfe der Kunden zu implantieren.
 
Das wäre sinnvoll für USB 4.0. Eine Stromaufnahme die solche Geräte wie Scanner, Monitor, Drucker abdeckt mit einer höherern aber dennoch niedriegen Stromaufnahme. Sobald sie nur innerhalb dieser Spezifikation Strom ziehen bräuchten dann alle Geräte kein Netzstecker bzw wäre das Produzieren mehrerer Gerätestecker 110V, 220V etc. überflüssig und spart auch wieder ein klein Teil.
 
ne gute sache, und die haltbarkeit naja, sollte fuer mich knappe 5 jahre halten, bis dahin ist ein monitor sowieso abgeschrieben oder aus irgend einem anderen grund defekt
 
Mit 6,3 Watt werden die beiden USB Ports aber überlastet, da ein USB 2.0 Port laut Spezifikationen nur 2,5 Watt liefert.
Oder hab ich einen Denkfehler?
nö seh ich genauso...und das wundert mich auch, dass das in keinster weise angesprochen wurde. aber naja...redakteure wissen auch nicht alles
 
da finde ich die alte variante wo der monitor ans netzteil des PCs gesteckt wird besser ... usb ports habe ich sowieso immer zu wenige ...
 
mal von der doppel-usb-2.0-lösung abgesehen.

Ein Monitor (!) mit 6,3 Watt? Das ist doch ma krass!
 
Hm. Also ich hätte mir bei der News ein paar mehr Infos gewünscht. Denn so kann ich den Stromverbrauch nicht wirklich einschätzen. Mein 24" TFT Monitor von HP hat ~40-60W verbrauch. Aber auch mehr als die doppelte Auflösung und größere Bildfläche. Dazu kommt die Drosselung der Displayhelligkeit beim Samsung. Irgendwie glaube ich, dass alle Displays mit den Einstellungen so wenig ziehen könnten, bloß dass niemand so ein Bild haben möchte (18,5" mit HD-ready Auflösung? lol) und es deshalb keinen Markt dafür gibt.

Ins HDMI Kabel integrieren ist 'ne interessante Idee.
 
Zurück
Oben