100 Hz auf 4k TV - geht das überhaupt über einen Grafik-Ausgang?

Ja, da stimme ich dir definitiv zu. Man sollte sich vor dem kauf erkunden (seiten gibt's genug).

Aber gerade die aktuellen "oberklasse" LED TV's (und OLED) haben fast alle die Funktion wie die XE90 Modelle und LG's Super UHD Modelle (SJ800v etc.).
Samsung kann ich nichts zu sagen da absolut unübersichtlicher menge an Produktrevisionen und überteuertem QLED welche auch nicht besser sind als vergleichbare Modelle von Sony/LG etc.


Nicht selten ist es schon schwierig genug rauszubekommen ob ein TV wirkliche native 100/120hz hat, fast so schlimm wie die Frage nach 10bit oder 8+FRC...
 
Also ist es doch, aus Sicht eines PC-Spielers ein schlechter Zeitpunkt für den Kauf eines teuren 4K TVs.
Das Panel könnte 4K@120Hz darstellen. Die GPU über DP eventuell auch ausgeben (ältere Spiele / eSport), aber am Fernseher gäbe es für dieses Szenario keinen passenden Eingang, da nur HDMI 2.0.
 
Ja, das ist wohl wahr.

Für 4K@120 gibt es keine Schnittstelle. 1080p@120 via PC wird nur von wenigen Geräten unterstützt, auch wenn das Panel 120 Hz hat.
Da kann man nur hoffen, dass sich da bald was tut und vor allem Freesync mal auf Fernsehern sich weiter verbreitet.
 
Theoretisch stimmt das schon aber will man wirklich warten?

OLED's mit HDMI 2.1 kommen wahrscheinlich erst 2019, Nvidias TV's kommen vielleicht 2018 werden aber locker über 2k kosten und bleiben weiterhin LED/LCD TV's.

Aktuell sind die 55 Zoll LG's sehr günstig. Ich rüste dann einfach bei Bedarf auf.
Immerhin schaue ich damit ja auch Filme über meinen Aplle TV 4k ^^


Natürlich wäre es schöner wenn die TV hersteller einfach einen Displayport anschluss mit verbauen würden oder einen Adapter etc. aber man kann schon froh sein das das Thema Game Mode/Pc Mode und geringer Inputlag ernster genommen wird ^^
______________________

120hz sind ja auch unterhalb von 120fps positiv zu bemerken. Spätestens mit der nächsten 1080/Ti wird es auch bei aktuellen Titeln gute Settings in 100fps geben können.
 
Danke euch für eure Beiträge!

Wie Fujiyama direkt gesagt hat - der passende Eingang am TV stellt den Bottleneck dar... aber wie auch später ausgeführt, ist das wohl für TV Bilder gar nicht sooo relevant... wobei ich mich dann auch frage, wozu überhaupt 120 Hz Panele, wenn man ohnehin nur 60 Hz über die Zuspieler hat? Theoretisch beschränkt sich das doch dann auf Filme die per Netzwerk gestreamt werden? Halt für 4K - bei FullHD sieht freilich anders aus... Zeigt mal wieder, dass 4k echt in den Kinderschuhen steckt... (wie auch in den Link von kantico zu erkennen!)

Danke auch an den Rest!
 
Naja 4k/HDR/Dolby Vision Content gibt es gerade Online zuhauf.

Außerdem hat ein natives 100hz Panel immernoch Vorteile wenn es um Zwischenbildberechnung geht. Mehr Hz bedeutet mehr Bilder, mehr Bilder bietet mehr Platz für Zwischenbilder.

Wie auch am PC gilt: 120+ Hz Bedarf keiner 120+FPS um einen unterschied zu merken.

Wie gesagt, vielleicht liegt es nicht am 100hz Panel sondern am OLED aber ich sehe selbst bei normalen Filmen mit DVD Qualität eine enorme Verbesserung um Bild - ganz besonders in Nahaufnahmen von Mensch und Tier.
Fast so als würde man ein 30fps mit einem 60fps Video vergleichen. Manchmal merke ich sogar deutlicher die fehlende Lippensynchronität :D

P.s. Wohlbemerkt alles über den Apple TV 4k.
 
Zuletzt bearbeitet:
Bildfrequenz Panel Hardware (nativ):

Hertz bezeichnet die Frequenz, bei TVs die Bildfrequenz. Ein TV mit 50 Hz kann 50 Bilder pro Sekunde übertragen. Ein 200 Hz TV eben 200 Bilder pro Sekunde. Eine Erhöhung wirkt sich positiv auf die optimale Bildqualität aus.

Full HD Display können 50 Hz, 100 Hz nativ und 200 Hz nativ haben. 50 Hz ist normal und nicht nativ.
4K Display können nur maximal 100 Hz mit HDR nativ haben. Ohne HDR 200 Hz nativ.
Nativ bedeutet was der TV in phys. Hardware anzeigen kann.

200 Hz war meiner Meinung nach nötig wegen 3D TV. Pro Auge gibt es eine Halbierung der Bildrate (Hz) und bei 100 Hz TVs mit 3D-Shutter-Technik führt die Halbierung auf 50 Hz pro Auge zu unschönen Doppelkonturen und Bewegungsunschärfe. Die Auflösung halbiert sich auch noch dazu in der Höhe.

Dewegen gibt es eigentlich kaum noch kaum 4K 3 TVs. Nicht weil die Nachfrage nachgelassen hat sondern weil ein 4K TV 100 Hz nativ mit HDR nur mit 50 Hertz pro Auge darstellen kann.

Bei der Produktion von Filmen werden Filmkameras eingesetzt, die Vollbilder aufzeichnen. Meist 24 Hertz. Diese Aufnahmen sind in erster Linie fürs Kino bestimmt, wo ebenfalls Vollbilder dargestellt werden.
Das menschliche Gehirn nimmt ab ca. 14 bis 16 Bildern pro Sekunde aufeinanderfolgende Bilder als Bewegung wahr. IMAX Filme liegen in 48 Hz vor.

Ganz anders sieht das bei Videoaufnahmen aus, die mit TV-Kameras für das Fernsehen produziert wurden. TV-Kameras arbeiten nach dem Zeilensprungverfahren und zeichnen Halbbilder mit 48 Hz auf. Zwischen diesen Halbbildern gibt es es einen Zeitverzug von 0,02 Sekunden und am Ende werden aus 48 Hz---> 50 Hz. Da sind wir bei einen normalen 50 Hz TV.

Aus historisch-technischen Gründen verwendeten Fernsehgeräte das Zeilensprungverfahren, bei dem keine Vollbilder , sondern Halbbilder mit 50 Hz dargestellt werden. Jedes Halbbild besteht nur aus der Hälfte der Bildzeilen eines Vollbildes. Es wird immer abwechselnd ein Halbbild mit den ungeraden Bildzeilen und eines mit den geraden Bildzeilen dargestellt. Ursprünglich wurde das Zeilensprungverfahren in der Anfangszeit des Fernsehens eingeführt, um mit dem damaligen Stand der Technik ein halbwegs flimmerfreies Bild zu gewährleisten. Schlicht weg ein kleiner Betrug.

Es gibt praktisch 2 Standarts. Kino und TV-Produktionen.

Schaut ihr normal TV (50 Hz) wird praktisch nix angepasst. Schaut ihr ne Bluray (24 Hz) muß das Bild von Vollbildern in Halbilder umgewandelt werden. Dieser Vorgang ist unter den Namen Deinterlacing bekannt. Wer mal mit Handbrake gearbeitet gearbeitet hat wird bestimmt schon darüber gestolpert sein.

TV-Material besteht aus 50 unterschiedlichen Einzelbildern pro Sekunde (PAL), bei einer kontinuierlichen Bewegung zeigt jedes dieser Halbbilder einen anderen „Schnappschuss“.
Bei Kinomaterial stammen je zwei aufeinanderfolgende Halbbilder nach der Umrechnung aus dem selben Vollbild. Ergo nur halb so viele „Schnappschüsse“. Dabei werden Bewegungen weniger flüssiger dargestellt. Es fehlt praktisch die Hälfte der Bildinformation.

Wenn man jetzt diese umgewandelten Einzelbilder mehrere Male hintereinander angezeigt und dazwischen kurz abgedunkelt entsteht wieder der Eindruck einer wirklich flüssigen Bewegung.
Ein 100 Hz TV kopiert ein zusätzliches Zwischenbild zu zwei Originalbildern. Ein 200 HzTV fügt gleich drei Bilder hinzu, damit Bewegungen noch flüssiger erscheinen. Bei dieser Displayart wird nur die Bieldwiederholfrequenz erhöht. Am Bild selbst wird kein Eingriff vorgenommen.
Es wird praktisch wieder ein kleiner Betrug vorgenommen um den Qualitätsverlust beim Deinterlacing wieder auszugleichen.

Bildfrequenz Panel Software (interpoliert):

Um die Wiedergabequalität, Bildqualität zu erhöhen greifen die Hersteller auf verschieden Möglichkeiten aus einer Kombination aus Soft und Hardware zu.
So rechnete beispielsweise Samsung bis einschließlich 2014 mit der Clear Motion Rate (CMR) und machte aus einem Gerät mit 100-Hertz-Bildschirm (Panel) einen Fernseher mit 400 Hz CMR: 100 Hz (Bildwiederholfrequenz) x 2 (Zwischenbildberechnung) x 2 (Backlight-Blinking) = 400 Hz CMR.
Hersteller Sony versieht ein natives 50 Hz-Display etwa mit der Funktion Motionflow 400 Hz. Wie kommt die Zahl 400 nun zustande? Im Detail erklärt Sony das nicht, aber sie ist das Ergebnis von zusätzlich berechneten Bildern, die zwischen zwei Einzelbildern hinzugefügt werden. Ähnliche Funktionen und Marketingbezeichungen haben auch Fernseher von LG oder Panasonic usw...

Leider kann man diese Angaben nicht direkt vergleichen. Egal, wie viel Hertz die Hersteller auf die Verpackung schreiben: Ein 4K TV mit HDR 200 Hz nativ macht maximal 120 „echte“ Bilder pro Sekunde, ein Full-HD-TV maximal 200.
Diese interpoliert Angabe dient nur dazu welchem nativen Display in Echt eine Zwischenbildberechnung nahe kommt.
Das auch nur so wie der Hersteller es meint.

Wie gut diese Zwischenbildberechnungen funktionieren wirkt subjektiv für jeden anders. Ich habe ein 100 Hz 2015 Phillips TV und alle Zwischenbildberechnung (interpoliert) ausgeschaltet. Ich habe das Bild über Helligkeit und Rot- Grün-Blau Weißwert eingestellt.

50/60 Hertz

PAL Fernsehern (50 Halbilder pro Sekunde = 50Hz) zu NTSC Fernsehern (60 Halbbilder pro Sekunde = 60Hz). Nativ 100 Hz /120 Hz, 200 Hz/240 Hz.
In den Anfängen der Fernsehtechnik orientierte man sich bei der Bildfrequenz an der Stromfrequenz (230 Volt / 50 Hz) die bei uns herscht. NTSC z.B. in Japan (100 Volt / 50 + 60 Hz) oder Nordamerika (120 Volt / 60 Hz) .
Wurde ein Film mit 25 Bildern pro Sekunde, funktioniert das auf einem 50 Hz TV sehr gut, da jedes Bild einfach zweimal gezeigt wird und so genau die 50 Bildwechsel erreicht werden.
Wer einmal einen Konsolenimport aus Japan auf 50 Hz stellt wird hingegen festellen das dies nicht optimal ist oder garnicht geht.

8 Bit, 10 Bit, 12 Bit Farbtiefe

Bisherige Fernseher und Monitore mit SDR konnten nur 256 Helligkeitsstufen (8 Bit) unterscheiden.
HDR 10 und Hybrid Log Gamma Geräte (HLG) können 1024 Helligkeitsstufen alias 10-Bit darstellen.
Dolby Vision unterstützt 4096 Helligkeitsabstufungen alias 12-Bit.

HDR10 ist ein freier Standard (SMPTE ST-2086) der das standardisierte Perceptual Quantizer (PQ) Verfahren (SMPTE ST-2084) nutzt. Farb- und Helligkeitsinformationen werden mit 10-Bit Farbtiefe im erweiterten REC.2020 Farbraum übertragen. Die übertragenen Metadaten sind statisch, gelten also für den gesamten Videoinhalt. HDR10 ist einer der ersten offenen Standards und wird von so ziemlich jedem Hersteller unterstützt. HDR10 ist auch immer Bestandteil einer 4K UHD Blu-ray und kommt auch bei 4K-Streams von Netflix, Amazon Video usw. zum Einsatz.

Dolby Vision nutzt ebenfalls das PQ-Verfahren um seine Metadaten an das Ausgabegerät zu übertragen. Hier handelt es sich aber nicht um einen freien Standard, für die Nutzung von Dolby Vision fallen somit Lizenzgebühren an. Der Vorteil gegenüber HDR10 ist die dynamische Übertragung der Metadaten. So kann die Farbkalibrierung für jede Szene, sogar für einzelne Bilder festgelegt und ausgegeben werden. Die Farb- und Helligkeitsinformationen werden sogar mit 12-bit ausgegeben, wodurch noch feinere Helligkeitunterschiede dargestellt werden können.

HLG kommt aus den Bereich der Fernsehübertragung und dient dazu Transponder-Bandbreite zu sparen. Wichtig zu wissen ist zudem, dass seit kurzer Zeit auch Hybrid Log Gamma ein Teil vom HDMI 2.0b-Standard ist, so dass alle Fernsehmodelle, die mit dieser Schnittstelle versehen sind nach einem Update in der Lage dazu sind den neuen HDR-Standard zu verarbeiten.

High Dynamic Range und Nits

Die Erweiterung dieses Dynamikumfangs nennt man „High Dynamic Range“ (HDR) – der bisherige Dynamikumfang wurde als „Standard Dynamic Range „(SDR) bezeichnet. Ein moderner 4K Fernseher ist in der Lage, mehr verschiedene Farben (Farbraum) in verschiedenen Helligkeitsstufen (Farbtiefe) darzustellen.
Im SDR-Bereich bewegt sich der Helligkeitsbereich zwischen 0.05 cd/m² und 100 cd/m² (candela pro m² auch „nits“ genannt). Das entspricht in etwa dem Helligkeitsspektrum vom Mondlicht bis zu einer einfachen Lampe. Man merkt bereits hier, die Darstellung von richtigem Schwarz und grellem Licht ist damit natürlich nicht möglich.
IM HDR-Bereich kann kann theoretisch 0.0005 cd/m² bis 10.000 cd/m² abgedeckt werden. Das entspricht einem dunklen Sternenhimmel, bis zu einem Himmel bei Tag mit Sonnenschein.
HDR sorgt dafür, dass wir Videoinhalte zu sehen bekommen, wie wir sie aus der Natur kennen. Unsere Augen reagieren auf Helligkeitsunterschiede viel sensibler als z.B. auf unterschiedliche Farben.

Für HDR braucht es also viel Nits.

HDMI Versionen: und 8 Bit, 10 Bit Panele (TVs)

HDMI 1.4 brachte die 4K Unterstützung mit 24 Hz.
HDMI 2.0 brachte die 4K Unterstützung mit 60 Hz.
HDMI 2.0a brachte die 4K Unterstützung mit 60 Hz und offiziell HDR (High Dynamic Range).
HDMI 2.1 wird 8K, Dynamic HDR, Video-Kompression DSC 1.2 (VESA DisplayPort) und 16 bit bringen.

Was wichtig ist: HDMI 2.0a hat nur 8 bit Unterstützung. Das ist non HDR. Ganz normales SDR.

Damit zu den normalen Bildinformationen noch die Helligkeitsinformationen (HDR) durch ein HDMI 2.0a Kabel übertragen werden können, muß mal wieder am Bild getrickst werden. Das Zauberwort ist Farbunterabtastung .
Subsampling 4:2:0 oder 4:2:2 habt ihr bestimmt schon mal irgendwo im Menü endeckt. Das ist der Trick auf Seiten des Kabels.

Jetzt folgt der auf Seiten des TVs. Es gibt TVs mit einem 8 bit Panel und es gibt TVs mit einen 10 bit Panel. 12 bit Panel sind mir nicht bekannt.
Damit auf einen 8 bit Panel HDR überhaupt geht muß auch hier, na wenn wunderts es wieder getrickst werden. Normaler Weise geht das ja nicht. Frame Rate Control wird dabei angewendet. Damit kann ein 10 bit Panel praktisch emulieren. 8 bit + FCR. Ein 10 bit Panel mit FCR kann also ein 12 bit Panel emulieren.

Grundsätzlich sollte das Panel mehr Bit haben als der Zuspieler. Die Panel sind wie z.B. CPUs nie zu 100% in der Produktion gelungen. Sobald ihr nur an der Helligkeit rumwerkelt schaft euer Gerät nicht mehr das ganze Spektrum. Im Hifi Forum nach zu lesen.

Dazu gibt es einen guten Beitrag auf Golem.de. Es geht da eigentlich um HDR am PC aber vieles was dort steht sollte recht informativ für TV-Nutzer sein.

Echtes HDR mit mindestens 10 bit sollte meiner Meinung nach im Moment per eingebauten Mediaplayer oder per Stream direkt im TV funktionieren. Was die eingebauten Player oder Streaming Apps können oder nicht ist schon wieder ein anderer Schuh.

Mit HDMI 2.1 wird auf 16 bit erhöht.



Quellen: Wikipedia, 4kfilme.de
 
Zuletzt bearbeitet von einem Moderator:
- Du hättest auch den Heise Artikel posten können, sowie den von Wikipedia
- Es gibt UHD TVs mit 200Hz panel
- Es gibt/gab auch passiv 3D

Aber was hat das ganze mit dem Thema zu tun ?
 
Naja Schaden kann die Info nicht...

UHD mit 200 Nativ habe ich nicht erwähnt weil die glaube kein HDR haben. Ja, aber es gibt sie. Wer kauft den UHD TV ohne HDR und das auch noch für teurer. Hab es korrigiert.
Oben genannt 3 D bezieht sich auf passiv. Aktiv bekommt ja die voll Auflösung pro Auge. Auf einen passiven UHD 4 K TV sehe ich ja in doppelt Full HD durch die Brille.
 
Zuletzt bearbeitet von einem Moderator:
Ich würde das gerne anhand meines Wissens "korrigieren".

Konsolen haben (bei der One x bin ich mir nicht ganz sicher) keine Unterstützung für mehr als 60Hz. Da zum Zocken auch der Game Mode benutzt wird und keine Input Lag erhöhende Zwischenbildberechnung hat ein 100hz/120hz Panel keine Auswirkung auf das Bild (sollte).

Am PC wiederum lässt sich solange der TV das unterstützt die Native Wiederholfrequenz auf 120Hz etc. einstellen.
Von 200hz Paneln welche so auch von einem PC angesteuert werden können ist mir bislang aber nichts bekannt.
 
Shelung schrieb:
Ich würde das gerne anhand meines Wissens "korrigieren".

Konsolen haben (bei der One x bin ich mir nicht ganz sicher) keine Unterstützung für mehr als 60Hz.

Dies ist falsch, speziell die Konsolen geben sogar explizit mit 50 oder 60Hz aus egal ob FullHD oder 4k. Hier ist aber auch anzumerken das bei den Konsolen die Hz Zahl nicht gleich bessere Grafik bedeutet. Da die Konsolen oft einfach weil sie nicht genug Leistung haben in einer geringeren Auflösung ein Spiel berechnen und dann selber (anstatt dies dem TV zu überlassen) je nach verwendeter Konsolen Generation bzw. Version im Falle der PS4->Pro Xbox One -> One X , das Bild vor der Ausgabe an den TV selbst Hochskalieren auf entweder FullHD oder eben auf UltraHD. Das Bedeutet: Nur weil der TV nach dem Wechsel auf den jeweiligen HDMI Eingang an dem die Konsole angeschlossen ist, kurz über sein OnScreen Display ein FullHD 60HZ oder 4k 60Hz Signal anzeigt NICHT auch automatisch das das Spiel in dieser Auflösung mit dieser HZ Zahl berechnet wurde.
 
Was ist bitte falsch?!

Ich sagte das die Konsolen keine Unterstützung für mehr als 60hz haben, also keine 100/120hz.
Das hat erstmal mit Auflösung und fps gar nichts zu tun.
 
Also erstmal vielen Dank an re-player für seine Fleißarbeit. Sehr informativ.

Nur bin ich was PC-Games am TV angeht ehrlich gesagt genau so schlau wie vorher. Sollte mal ein Game bei 4K mehr als 60 FPS schaffen bringt das dann was, oder kann man genau so VSync einschalten und es bei 60Hz belassen?
 
Wenn dein Monitor/TV nur 60hz bei 4k schafft bringen mehr als 60 FPS... wenig.

Das Problem ist das V-Sync zu einem Inputlag führt welcher mehr oder weniger spürbar ist.
Wenn du jetzt solo ein RPG spielst wohl irrelevant, bei einem Online shooter ist hingegen Tearing besser als ein Inputlag und dergleichen.
 
Shelung schrieb:
Wenn dein Monitor/TV nur 60hz bei 4k schafft bringen mehr als 60 FPS... wenig.

Nicht Monitor, sondern TV, der nativ 100Hz bei 4K HDR kann. Und ich bin zu alt, als daß Input-Lag eine bedeutende Rolle spielen könnte.:D
 
Ja aber auch dein TV wird bei 4k aktuell nur mit 60Hz funktionieren :)
 
Weil?


... gibt's auch eine Begründung zu der Behauptung?
 
Weil HDMI 2.0 nur 60hz bei 4k zulässt und anders kommst du nicht auf den TV mit einem PC.

Wenn du doch einen weg findest sag mir bescheid... oder melde ein Patent an :D
 
Zurück
Oben