News Club3D CAC-1085: Adapter von DP 1.4 auf HDMI 2.1 bringt 4K120 auf Fernseher

#Andreas# schrieb:
weil lgs 9er und x modelle die einzigen tvs auf der welt sind, die gsync unterstützen und vollständige hdmi2.1 implemetierung besitzen (x:40gbit)...weil sie den niedrigsten inputlag aller tvs haben...weil die x modelle 4k120hz mit hdmi2.0 könnn...weil die x modelle zusätzlich zu gsync noch freesync unterstützen... weil die x modelle bereits den av1 codec unterstützen und das in hardware...................



Das stimmt so nicht

Viele 2019er Modelle sei es OLED oder Nanocell der gehobenen Klasse können gsync zb 49lg9000er Serien aufwärts und das ist kein OLED

Mein Nanocell aus 2019 zb 49" gross 120hz möglich , direkt Led auch gutes Bild kann gsync

In dem NV Einstellungen ohne Probleme aktivierbar , zwar steht da nicht bestätigt funktioniert aber

An mein TV läuft 120hz in 2k samt gsync ohne Probleme , mit passenden zuspieler und Kabel sicher mehr drinnen

Der Adapter wird sicher ausprobiert bis passende grakas kommen
 
DFFVB schrieb:
In der Theorie natürlich. Aber 1 Petabyte ist auch besser als 1 TB. Brauchst Du es?

Also ein Terabyte reicht mir jedenfalls nicht, daher wohl ja. ;)

Brauchen ist halt relativ. "Brauchen" tue ich auch kein FullHD. "Brauchen" tue ich erstmal nur Essen und eine Unterkunft. Habe ja auch gesagt, dass 4K mit 120 Hz ziemlich teuer ist im Moment. Manche kümmert das aber nicht und irgendwann wird die Technik ja auch billiger.
 
Wenn ich mir etwas nicht leisten kann/will rede ich es runter um mich besser zu fühlen und so...
_____________

Also mit meiner 2080Ti konnte ich wunderbar in 4k Zocken bei 120hz, sogar AC.
100 FPS+ halt bei spielen die etwas weniger fordernd sind, das ist aber nicht nur bei esport games so.
Oft schon AAA Gamea von vor 2-3 Jahren.
 
  • Gefällt mir
Reaktionen: Twin_Four und Bright0001
@scryed , ich sprach von offiziell unterstützt, beworben und absolut funktionsfähig.

dass man es auch auf anderen tvs aktivieren kann und das dann funzt, halb funzt oder nicht funzt, ist ne andere sache.

gibt auch einige samsung und tcl tvs, die die aktivierung zulassen.
 
Ich fasse DFFVBs Beiträge hier mal zusammen:
  • Die einzigen Spiele, die von +60Hz profitieren sind Shooter
  • Flüssige Bewegungen aufm Desktop sind quatsch, weil der Hobbit mit 48fps egelig aussah
  • Es gibt keinen sichtbaren Unterschied zwischen 30Hz und 60Hz im Desktopbetrieb
  • Es gibt einen sichtbaren Qualitätsunterschied zwischen DP und HDMI
  • 24" Full-HD gerne mit +200Hz , aber nur für Pro-Gamer
  • CS:GO macht keinen Sinn in 4K
  • CS.GO unterstützt nicht mal 4K
  • Der Mensch kann nicht mehr als ~30 Farben unterscheiden
  • Die Digamma-Funktion ist, bis auf die Pole erster Ordnung, für negative ganze Argumente in ganz C holomorph.
Aber Achtung! Zwei Punkte habe ich dazugemogelt! Die Auflösung gibts morgen, viel Spaß beim Rätseln!
 
  • Gefällt mir
Reaktionen: Sunjy Kamikaze, Wallwatcher, Apocalypse und 21 andere
#Andreas# schrieb:
was dir das nützt auf 3m? ehm alles? sind ja super nice eigenschaften.
und kannst ihn ja auch als monitor nutzen.
deine antwort würde ich verstehen, wenn ich gesagt hätte boaaahhhhh 16k voll geil, scheiss 4k ey.
Ich habe einen 27" 4k IPS Monitor mit freesync viel Farbraum und Kontrast. Sitze in normaler Schreibtischdistanz entfernt, so 80cm würde ich schätzen.
Ich habe auch einen FullHD Beamer der 2m Bild mit 60 bzw. 120Hz (Zwischenbildberechnung) darstellt. Helligkeit, Farbe und Kontrast sind mittelmäßig. 2,8bis 3,3m Sitzabstand.
Weiterhin noch Standard 22" Büromonitore mit FullHD und noch ein 144Hz Full-HD 15,6" Notebook mit 99%srgb

Auch wenn die Bildqualität des Beamers objektiv nur irgendwo zwischen dem Notebook und den Büromonitoren liegt, so ist subjektiv die Immersion Des großen Beamerbildes im Welten besser als die aller Monitore. Und solange es nicht um FPS gaming und frameperfect Timings geht, macht das Zocken darauf auch mehr Spaß, auch wenn da langsam die Übersicht verloren gehen kann.^^
 
Man kann sich bei HDMI 2.1 auch einfach über ein UHD-10 bpc-60 Hz-Signal ohne Farbunterabtastung freuen, bei HDMI 2.0 geht das nur mit 8 bpc.

Bei Farbübergängen sieht man den Unterschied zwischen 8 bpc und 10 bpc deutlich und wenn man einen Fernseher als Monitor verwendet, weiß man, dass Farbunterabtastung nicht so toll bei Texten ist...

Was 120 Hz im Alltag angeht ist es eine Gewöhnungssache. Man "kennt" 60 Hz bzw fps beim Mauszeigerschieben und nimmt es als flüssig war. Der Umstieg zu 120 Hz ist eher so "Hmmm, ja ist schon flüssiger, aber doch nicht sooo sehr", geht man dann aber zurück zu 60 Hz fällt es einem doch sehr störend auf (meine Perspektive als reiner nicht-Spieler).
 
  • Gefällt mir
Reaktionen: Apocalypse, Conqi und ReVan1199
DFFVB schrieb:
Di einzigen Spiele die von solch hohen Hertz Zahlen profitiieren sind Shooter, da will man aber max 24 Zoll Monitore wegen peripheres Sehfeld

Wieder nur "Profis" hier. 🙄 Zocke in 144Hz und da gibt es weitaus mehr Spiele als Egoshooter die davon profitieren. Ich sag nur Rennspiele und Simulationen, wo das Mehr an Frames noch viel deutlicher ins Auge fällt. Ich empfehle noch ein vernünftiges Adaptive Sync dazu und alles wirkt super flüssig, ob nun 80, 100 oder 144Hz. Da muss man dann mit der Lupe suchen um da einen Unterschied zu spüren.
 
  • Gefällt mir
Reaktionen: Apocalypse
JBG schrieb:
Man kann sich bei HDMI 2.1 auch einfach über ein UHD-10 bpc-60 Hz-Signal ohne Farbunterabtastung freuen,...
nicht nur das, hdmi 2.1 leistet 4k 4:4:4/rgb auch mit 120hz und 12bit.

2-2160.2717301493.jpg


jetzt brauchts nur noch 12bit panels und grakas mit denen 4k120hz ausnutzbar ist. ^^
 
  • Gefällt mir
Reaktionen: Conqi
#Andreas# schrieb:
@scryed , ich sprach von offiziell unterstützt, beworben und absolut funktionsfähig.

dass man es auch auf anderen tvs aktivieren kann und das dann funzt, halb funzt oder nicht funzt, ist ne andere sache.

gibt auch einige samsung und tcl tvs, die die aktivierung zulassen.


Die meisten werden voll funktionsfähig sein..... Das ist alles eine Frage der Zertifizierung.... Das kostet ja auch Geld von daher beschränkt man sich auf die spitzen Modelle
 
Die CX Serie hat allerdings im Gegensatz zur C9 Serie einen abgespeckten HDMI 2.1 Port mit nur 40Gbps. 4:4:4 RGB bei 12Bit 4k/120Hz wird da wohl nicht laufen und bisher kann man im Nvidia Control Panel aber nur 8 oder 12Bit bei HDMI einstellen.

Mit einem Kauf des 48" Modells würde daher noch so lange warten, bis es die passende GPU dazu gibt und das ganze getestet wurde. Ab 55" kann man ja zur 9er Serie greifen.

Nichts ist nerviger, als wenn einem x Features versprochen werden, hinterher diese aber nur im Entweder-Oder Modus laufen (wie bei fast allen 4k144Hz Monitoren).

Übrigens: Ein 4k/120Hz Display macht sehr wohl auch bereits mit einer 2080ti Sinn. Diese schafft sehr viele Spiele in mindestens hohen Einstellungen mit 100+ fps. Und selbst wenn es nur 50-70 sind, hat man schon gewisse Vorteile von so einem Panel.
 
  • Gefällt mir
Reaktionen: Lübke82, Apocalypse und #Andreas#
Warum wird behauptet, dass es keine TVs mit Displayport gäbe? Einige Panasonics haben einen DP-Eingang. Z.B AXW904 oder AXW804.
 
  • Gefällt mir
Reaktionen: Lübke82
Colindo schrieb:
Ich habe damals den ersten Hobbit-Film zweimal gesehen, einmal 3D mit 48fps und einmal 2D mit 24fps, und der Unterschied war sehr deutlich.
Gab es im Kino den Hobbit nicht nur in 2D mit HFR und 3D mit 24fps? Ich habe den Hobbit damals in 2D mit HFR geguckt und war begeistert, schade das danach nichts mehr kam.
 
Gibt es auch Specs zu den unterstützten Chroma-Subsampling-Modi in Zusammenhang mit den unterstüzten Auflösungen bzw. Bildwiederholfrequenzen?
 
HansJolb schrieb:
DisplayPort ist eine Totgeburt.

14 Jahre nach der Veröffentlichung der ersten Spezifikation noch von einer Geburt zu sprechen ist etwas merkwürdig. Bei der heutigen weiten Verbreitung von Displayport von tot zu sprechen sowieso.
 
  • Gefällt mir
Reaktionen: Lübke82, SyntaX, C3LLoX und 4 andere
DFFVB schrieb:
Es bleibt dabei, aber ja die Grenze zwischen Enthusiamsus und Schwachswinn ist dünn.. genauso wie die Leute mit ihrem 40G Heimnetz, das sie nicht mal via Raid0 ausnutzen können... Ich bin raus

Ist auch besser so, dass du dich zu dem Thema raushältst, denn du scheinst ja keinen besonders tiefen Einblick in die Technik zu haben. Alleine dass du FIlme ("der Hobbit") mit Computerspielen vergleichst, sagt eigentlich schon alles.

Für die Erzeugung von Filmen werden Einzelbilder aneinandergereiht, die mit einer bestimmten Belichtungszeit aufgenommen wurden. Ganz klassisch ist dabei der 180° Shutter Angle Ansatz, der sich bis in die heutige Zeit gehalten hat. "Shutter Angle" beschreibt das Verhältnis von Belichtungszeit relativ zur Framerate. Bei 24fps ergibt sich unter Verwendung der 180° Shutter Angle Regel eine Belichtungszeit von 1/48s. Bei schnellen Bewegungen oder bei sich bewegenden Motiven ist das natürlich eine recht lange Belichtungszeit, so dass hier Bewegungen im Einzelbild bereits eine gewisse Bewegungsunschärfe aufweisen. Reiht man diese Bilder nun aneinander, sieht das für den Menschen selbst bei 24fps schon einigermaßen flüssig aus.

Jetzt der Knackpunkt: Computerspiele kennen keine "Belichtungszeit" und abgesehen von Post Processing auch keine Bewegungsunschärfe. Wenn du nun z.B. ein Computerspiel wie CS:GO auf 24fps limitierst wird das NIE flüssig aussehen. Genausowenig werden Filme flüssig aussehen, die z.B. 24fps aufweisen aber mit viel kürzeren Belichtungszeiten pro Einzelbild aufgenommen wurden (z.B. 1/1000s) und noch dazu bewegte Motive enthalten.

Fazit: Die Framerate an sich sagt erst einmal nur sehr wenig darüber aus, was wirklich als flüssig empfunden wird oder besser gesagt empfunden werden kann. Dennoch gibt es einige Faktoren die zumindest einen flüssigen Bildeindruck vermuten lassen. On Top kommt dann aber immer noch das subjektive Empfinden eines Individuums und solche Dinge wie Synchronisation zwischen Bildgebender Quelle und Ausgabegerät.

Sicher ist allerdings: Bei Computerspielen deren Einzelbilder ohne Beweungsunschärfe berechnet werden, ist es fast jedem Menschen möglich Unterschiede bis circa 80-100fps zu sehen, sofern das Ausgabegerät das auch unterstützt. Danach wird es dann schon etwas kniffliger.

Und noch ein Hinweis: Auch alte Titel mit wenig opulenter Grafik wie z.B. CS:GO sollten heutzutage oftmals in der nativen Auflösung des Ausgabegerätes wiedergegeben werden (also z.B. 4k), da alles andere möglicherweise zu einer Interpolation des Bildes im Ausgabegerät führt, die ggf. ein zeitliches Delay verursacht. Zusätzliche Latenz ist bei schnellen Shottern und bei ambitionierter Spielweise immer schlecht. Auch hier gibt es wieder große Unterschiede beim subjektiven Empfinden und natürlich den persönlichen Ansprüchen.
 
  • Gefällt mir
Reaktionen: Anzony, Wallwatcher und bafford
Oneplusfan schrieb:
Die CX Serie hat allerdings im Gegensatz zur C9 Serie einen abgespeckten HDMI 2.1 Port mit nur 40Gbps. 4:4:4 RGB bei 12Bit 4k/120Hz wird da wohl nicht laufen und bisher kann man im Nvidia Control Panel aber nur 8 oder 12Bit bei HDMI einstellen.

korrekt, wurde in anderen threads auch schon mehrfach besprochen.
hatte hier nur die reinen fähigkeiten von hdmi2.1 dargestellt.
Ergänzung ()

@-Daniel-, was er wohl generell nicht versteht, ist, dass es ein riesen unterschied ist, ob du total disconnected einen film schaust oder per augen-hand-display kombi ein game zockst und einen cursor bewegst.

beispiel: die meisten können beim gucken eines letsplays nichtmal unterscheiden ob es in 30 oder 60 fps/hz läuft, könnten es beim selber zocken jedoch sehr einfach.
Ergänzung ()

scryed schrieb:
Die meisten werden voll funktionsfähig sein..... Das ist alles eine Frage der Zertifizierung.... Das kostet ja auch Geld von daher beschränkt man sich auf die spitzen Modelle
eher nicht so, gibt etliche flacker und schwarzbild videos auf youtube davon.
freue mich aber dass deiner funktioniert. :)
 
Zuletzt bearbeitet:
Zurück
Oben