R
re-player
Gast
HDMI 2.1 zwischen PC und TV
Jetzt:
Da jetzt per HDMI nur 4K Auflösung mit 60 Hz übertragen werden kann, hat es doch keinen Sinn mehr als 50/60 Hz an den 4K TV zu schicken? Es geht ja schlichtweg nicht. Es liegt an der Übertragung. Am Kabel.
Der PC (Grafikarte) kann es über DVI, DP usw. Die aktuelle TV Generation könnte es schon bei Zwischenbildberechnungen nativ deaktiviert. Das muß doch eigentlich gehen? Also die Deaktivierung. Aus einen TV einen normalen PC-Monitor machen.
Zukunft:
Mit HDMI 2.1 sind ja bei 4K 120 Hz möglich. Damit wäre jetzt die Übertragung geklärt.
Das bedeute doch eigentlich von der Industrie aus neuen TV mit HDMI 2.1 Buchse und neue Grafikkarte mit HDMI2.1 Buchse oder ne XBOX ONE ULTRA Haumich Blau mit HDMI 2.1 Buchse kaufen zu müssen.
Neue TVs müßten doch dann alle 100/120 Hz haben um HDMI 2.1 darstellen zu können. Genauer gesagt 100/120 Hz normal nicht nativ. Sie sollen ja entweder 1:1 synchron (VSync an) oder asynchron (VSync aus) wiedergeben im Falle eines PC.
Dann würden ja nur noch 4K 100/120 Hz HDR und 4K 200/240 nativ Hz übrig bleiben.
4K 200 Hz nativ TVs sind heute ja ohne HDR. Ich verzichte doch nicht auf das in meinen Augen höherwertiger Future HDR zu gunsten der Hz Zahl. Also müßten doch 4K 200 Hz nativ HDR TVs kommen?
Warum eigentlich der ganze Aufwand wenn es heute eigentlich mit 2 Umstellungen gehen würde?
- Zwischenbildberechnungen nativ deaktiviert bei 4K 120/200 Hz TVs
- PC Schnittstelle an den TV gemacht
HDMI 2.1 würde in meinen Augen gar nicht gebraucht. Warum gibt es nicht solche TVs? Die Nachfrage wäre 100 % vorhanden.
Auf Geizhals ist ein TV mit Displayport gelistet. Der Panasonic TX-65AXW804.
Er hat 4K, kein HDR, interpoliert 2000 Hz und keine Angabe zu Nativ. Ich schlussfolgere daraus das die Zwischenbildberechnungen nativ deaktiviert ist und er sich wie ein normale PC-Monitor verhält.
Kein HDR ist jetzt wo PCs das auch haben wieder nur eine unrunde Sache.
Jetzt:
Da jetzt per HDMI nur 4K Auflösung mit 60 Hz übertragen werden kann, hat es doch keinen Sinn mehr als 50/60 Hz an den 4K TV zu schicken? Es geht ja schlichtweg nicht. Es liegt an der Übertragung. Am Kabel.
Der PC (Grafikarte) kann es über DVI, DP usw. Die aktuelle TV Generation könnte es schon bei Zwischenbildberechnungen nativ deaktiviert. Das muß doch eigentlich gehen? Also die Deaktivierung. Aus einen TV einen normalen PC-Monitor machen.
Zukunft:
Mit HDMI 2.1 sind ja bei 4K 120 Hz möglich. Damit wäre jetzt die Übertragung geklärt.
Das bedeute doch eigentlich von der Industrie aus neuen TV mit HDMI 2.1 Buchse und neue Grafikkarte mit HDMI2.1 Buchse oder ne XBOX ONE ULTRA Haumich Blau mit HDMI 2.1 Buchse kaufen zu müssen.
Neue TVs müßten doch dann alle 100/120 Hz haben um HDMI 2.1 darstellen zu können. Genauer gesagt 100/120 Hz normal nicht nativ. Sie sollen ja entweder 1:1 synchron (VSync an) oder asynchron (VSync aus) wiedergeben im Falle eines PC.
Dann würden ja nur noch 4K 100/120 Hz HDR und 4K 200/240 nativ Hz übrig bleiben.
4K 200 Hz nativ TVs sind heute ja ohne HDR. Ich verzichte doch nicht auf das in meinen Augen höherwertiger Future HDR zu gunsten der Hz Zahl. Also müßten doch 4K 200 Hz nativ HDR TVs kommen?
Warum eigentlich der ganze Aufwand wenn es heute eigentlich mit 2 Umstellungen gehen würde?
- Zwischenbildberechnungen nativ deaktiviert bei 4K 120/200 Hz TVs
- PC Schnittstelle an den TV gemacht
HDMI 2.1 würde in meinen Augen gar nicht gebraucht. Warum gibt es nicht solche TVs? Die Nachfrage wäre 100 % vorhanden.
Auf Geizhals ist ein TV mit Displayport gelistet. Der Panasonic TX-65AXW804.
Er hat 4K, kein HDR, interpoliert 2000 Hz und keine Angabe zu Nativ. Ich schlussfolgere daraus das die Zwischenbildberechnungen nativ deaktiviert ist und er sich wie ein normale PC-Monitor verhält.
Kein HDR ist jetzt wo PCs das auch haben wieder nur eine unrunde Sache.
Zuletzt bearbeitet von einem Moderator: