TV mehr Verbrauch bei HDMI

Hoedur

Cadet 3rd Year
Registriert
Aug. 2020
Beiträge
33
Hi

ich habe folgende sache die ich einfach nicht verstehe, vielleicht kann sie mir ja einer von euch erklären.

Es geht um den Samsung GQ75QN95AATXZG.
Wenn ich einen Inhalt sagen wir mal Twitch oder Netflix direkt auf dem TV über die App ansehe hat mein TV einen Verbrauch von um die 100-140 Watt. Spiele ich den selben Inhalt über meinen an den TV via HDMI angeschlossenen PC ab zieht er eher 200-280W.

Switchen in Windows zwischen HDR ON/OFF oder 60/120Hz machen diesen Unterschied nicht aus.

TV und PC hängen natürlich nicht an der selben Dose.
 
  • Gefällt mir
Reaktionen: SpamBot
ins Blaue: Für die Webstreams hat der TV einen hardwarenahen Codec der sehr sparsam läuft. HDMI muss er hingegen und warum auch immer intern wandeln. Z.B. ein Upscaling auf 4K?
 
Das war bisher auch der einzige Gedanke den ich bis jetzt hatte.
upscaling sollte eigentlich nicht der Fall sein weil ich ja die Native Auflösung übertrage.
Fänd es schon sehr dumm wenn die Verarbeitung eines HDMI Signals 100W oder mehr ziehen würde gegenüber einer App die komplett selbst von TV bearbeitet werden muss.
 
oder ein anderes Profil? z.B. stärkeres Backlight?
 
  • Gefällt mir
Reaktionen: up.whatever und Tranceport
0815burner schrieb:
immer intern wandeln.
Mit bis zu 140 Watt braucht er dafür aber schon eine krasse Recheneinheit mit ordentlicher Kühlung... 140 Watt muss man ja erstmal weg kühlen.

Ist der Gaming Mode / PC Mode an wenn der PC läuft?
 
  • Gefällt mir
Reaktionen: 0815burner und Mickey Mouse
Eine 1650 braucht 90W bei Volllast ! ein Scaler wird das sicher nicht verbrauchen. Was sagt das Datenblatt des Samsung? Darf der überhaupt soviel ziehen? Wenn nicht dann ist es eher eine Auslesefehler.
 
Was sagt der Kundenservice dazu?
Hier würde ich, sonderlich nach Interner Rücksprache, eine valide Aussage erwarten.
 
Das Datenblatt: https://images.samsung.com/is/conte...n-energylabel-gq75qn95aatxzg-productfiche.pdf

Ich dachte auch erst an einen Auslesefehler und dass der Fernseher doch sicher unmöglich 280 Watt verbrauchen würde... Doch, tut er - im HDR-Modus.

Bei den genannten Werten für SDR und HDR, die ziemlich genau den hier genannten Werten für interne Wiedergabe und Wiedergabe mit externem Abspieler entsprechen, würde ich raten, dass das eine Rolle spielt.
 
pc macht rgb, tv yuv das sind unterschiedliche Datenraten
 
Zuletzt bearbeitet:
Ziemlich sicher eine andere Backlight Einstellung.
Die ist bei Samsung meistens pro Quelle und Bildmodus (Standard/dynamisch/Natürlich..) einzustellen.
Oder "Öko Sensor" (Anpassung des Backlights an Umgebungslicht) bei dieser Quelle deaktiviert.

Meiner braucht bei max. Backlight über 100% mehr als bei min. und das ist bei deinem wahrscheinlich auch so da extrem helles FALD Panel.

Müsstest du bei Dunkelheit aber sofort merken, wenn ich nachts das Backlight voll aufdrehe krieg ich Sonnenbrand in den Augen :D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: metallica2006 und iSight2TheBlind
ok scheint wirklich nur an HDR zu liegen. Keine Ahnung was/wie ich das letztes mal getestet hatte aber das war wohl quatsch :lol:

Wenn ich HDR in Windows deaktivere und 30 Sek warte bis sich das Backlight gedimmt hat sinkt der Verbrauch logicsherweise.
Trotzdem danke.
Ergänzung ()

Nur mal für euch zum vergleich:

Dimme ich die Helligkeit für SDR Inhalte in Windows auf 0% verbraucht der TV ca 140W, bei 10% schon 190W und bei 25% gibt es praktisch keinen Unterschied mehr beim Verbrauch im Vergleich zu 100% dann liegt der TV bei 260W
 
Zuletzt bearbeitet:
Zurück
Oben