Hdmi 2.1 bei Monitor ein muss, wenn nur EA FC 26?

MSQBLn

Cadet 2nd Year
Registriert
Juli 2021
Beiträge
29
Liebe Community,

da ich auf der Suche nach einem Monitor bin, bin ich auf die Frage gestoßen ob man, wirklich nur HDMI 2.1 braucht, wenn man nur EA FC 26 über den Monitor spielt.

Der Rest der Games(PS5 Pro) geht über meinen TV.

Ich nehme den Monitor für PC Games.

Ich hab eigentlich paar nette Monitore gefunden, aber ohne HDMI 2.1.

Wenn es notwendig ist muss ich halt noch tiefer in die Tasche greifen.

Ich Wünsche mir für EA FC die geringste Zeitverzögerung und hätte an diesen Monitor gedacht

www.saturn.de/de/product/_asus-xg27ucs-27-zoll-uhd-4k-gaming-monitor-1-ms-reaktionszeit-160-hz-2944149.html

oder den


https://www.amazon.de/GIGABYTE-27Zoll-Monitor-2‎‎560x1440-Display/dp/B08L6XR935?tag=gs-tech-deals-21

Was sagen die Profis unter euch?
Wie gesagt wenn hdmi nicht sein muß, nehme ich den günstigeren.

Grüße
 
HDMI 2.0 reicht.

1756396799180.png


Du weißt, dass die Monitore unterschiedliche Auflösungen haben?


Was sagst du zu folgendem Monitor? https://geizhals.de/dell-alienware-aw2725qf-210-bnht-a3301112.html
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: nutrix
Dankeschön für die Infos.

Ich war überfragt ob das HDMI Kabel etwas mit der Eingabe Verzögerung zu tun haben oder nicht.

Deswegen die Frage.

Dank ich schau da mal.

Grüße
 
Deine Eingabe läuft doch gar nicht über das HDMI-Kabel. Wie soll es dann einen Einfluss auf die Eingabeverzögerung haben? ;)

Vielleicht meinst du die Signallaufzeit zum Bildschirm für das Bild an sich. Die Bildaufbauzeiten des Monitors werden um Faktoren größer sein als die Signallaufzeit in einem HDMI-Kabel.
 
An PC Monitoren sollte man eh eher Displayport nehmen, was willst Du da mit HDMI (was eh nur für TVs gedacht ist)?
 
  • Gefällt mir
Reaktionen: Aduasen
Hallo

@nutrix
Deine Aussage ist so pauschal nicht richtig, vor allem bei 4K Monitoren mit hoher Bildwiederholrate und 10/12 Bit Farben.
Es gibt viel zu viele 4K Monitore die nur DP 1.4 und HDMI 2.1 Anschlüsse haben, da würde ich immer HDMI 2.1 bevorzugen.
Der vom TE ins Spiel gebrachte ROG Strix XG27UCS hat nur DP 1.4 und HDMI 2.1, da sollte man definitiv HDMI 2.1 nehmen.
Bei einem 4K Monitor mit DP 2.1 würde ich natürlich auch DP nehmen, 4K Monitore mit DP 2.1 sind aber leider sehr selten.

Der vom TE ausgesuchte ROG Strix XG27UCS hat 3840 x 2160 mit 160 Hz und 10 Bit Farben, das ergibt eine benötigte Bandbreite von 43,88 Gbp/s.
DP 1.4 hat eine Datenrate von 25,92 Gbp/s und 43,88 Gbp/s sind bei DP 1.4 auch mit DSC kritisch: https://trychen.com/feature/video-bandwidth

Ich habe einen 4K Monitor mit 144 Hz und DP 1.4 und HDMI 2.1, ich würde nie auf die Idee kommen DP 1.4 mit der geringen Bandbreite zu nutzen.
Ich nutze HDMI 2.1 weil Display Port 1.4 mit aktivem DSC bei 4K mit 144 Hz und 10 Bit Farben ca. 35% komprimiert, bis ca. 100 Hz geht ohne DSC.
Ich sehe bei DP 1.4 mit 4K und 10 Bit Farben auch Unterschiede bei den Farben/Farbverläufen zwischen 144 Hz und 100 Hz bei Fotos/Videos.
HDMI 2.1 hat wegen der hohen Bandbreite von 42,66 Gbp/s noch den großen Vorteil das ich 4K mit 144 Hz und 12 Bit Farben nutzen kann.

Grüße Tomi
 
Zuletzt bearbeitet:
Hallo

Drewkev schrieb:
DSC ist verlustfrei, das sieht man nicht.
Wenn du keinen Unterschied siehst (Schlechte Augen ?) und/oder kein hochwertiges Quellmaterial hast und/oder keinen hochwertigen Monitor hast OK,...

Tomislav2007 schrieb:
Ich sehe bei DP 1.4 mit 4K und 10 Bit Farben auch Unterschiede bei den Farben/Farbverläufen zwischen 144 Hz und 100 Hz bei Fotos/Videos.
...ich sehe bei Fotos/Videos einen Unterschied bei DP 1.4 mit aktivem DSC und ca. 35% Komprimierung bei 4K mit 144 Hz und 10 Bit Farben.

Bei einem 4K Monitor mit HDMI 2.1 und nur DP 1.4 gibt es keinen Grund der dafür spricht DP 1.4 zu nutzen bei 4K mit hohen Bildraten und 10/12 Bit Farben.
Es hängt natürlich davon ab wie hoch die Komprimierung ist, bei 4K mit hohen Bildraten und 10/12 Bit Farben kommen wir bei DP 1.4 an die Grenzen von DSC.

Grüße Tomi
 
Zuletzt bearbeitet:
Tomislav2007 schrieb:
Wenn du keinen Unterschied siehst (Schlechte Augen ?) und/oder kein hochwertiges Quellmaterial hast und/oder keinen hochwertigen Monitor hast OK,...
Alles nicht zutreffend ;)

Tomislav2007 schrieb:
...ich sehe bei Fotos/Videos einen Unterschied bei DP 1.4 mit aktivem DSC und ca. 35% Komprimierung bei 4K mit 144 Hz und 10 Bit Farben.
Wahrscheinlich einfach nur Placebo. DSC ist zwar verlustbehaftet aber das sieht man höchstens im direkten Vergleich.
 
Was ja schon die Frage ist: Wieso kann man das Signal so stark komprimieren und wieso sieht man das nicht? Bzw.: Warum wird es dann nicht immer komprimiert, anstatt immer schnellere Versionen rauszubringen?

Ich habe manchmal auf meinem Monitor ein weißes Aufblitzen. Das kann angeblich auch durch DSC kommen.
Ich habe 5120x1440 mit 240 Hz auf DP 1.4a. Schon eine sehr starke Komprimierung laut der Webseite oben.
 
Hallo

Drewkev schrieb:
DSC ist zwar verlustbehaftet aber das sieht man höchstens im direkten Vergleich.
Richtig und genau das habe ich gemacht, ich habe einen direkten Vergleich durchgeführt.
Ich habe meinen Monitor mit DP 1.4 und HDMi 2.1 angeschlossen und im laufenden Betrieb umgeschaltet.
Die Unterschiede sind minimal, aber wieso sollte man DP 1.4 nutzen wenn der Monitor auch HDMI 2.1 hat ?

Drewkev schrieb:
Wahrscheinlich einfach nur Placebo. DSC ist zwar verlustbehaftet aber das sieht man höchstens im direkten Vergleich.
Wenn man es im direkten Vergleich sieht ist es kein Placebo.

Mosed schrieb:
Was ja schon die Frage ist: Wieso kann man das Signal so stark komprimieren und wieso sieht man das nicht? Bzw.: Warum wird es dann nicht immer komprimiert, anstatt immer schnellere Versionen rauszubringen?
Als Mp3 und Dolby Digital raus kamen hat man uns auch erzählt das man keinen Unterschied hört.
Ich als HiFi Fetischist mit guter HiFi Anlage leugne heute noch die Existenz von dem MP3 Gelumpe.
Komprimierung kommt immer dann ins Spiel wenn der Speicher oder die Bandbreite nicht ausreicht.

Grüße Tomi
 
Zuletzt bearbeitet:
Tomislav2007 schrieb:
Ich habe meinen Monitor mit DP 1.4 und HDMi 2.1 angeschlossen und im laufenden Betrieb umgeschaltet.
Das ist kein direkter Vergleich und woher weißt du, dass DSC überhaupt aktiv war? Weil das kann man gar nicht nachschauen. Und dass HDMI und DisplayPort ohne Eingreifen ohnehin erstmal unterschiedlich aussehen, weißt du auch? ;)

Mosed schrieb:
Warum wird es dann nicht immer komprimiert, anstatt immer schnellere Versionen rauszubringen?
Das müsstest du die Monitorhersteller fragen. Üblicherweise kommt DSC dann zum Einsatz, wenn es zum Zeitpunkt keinen DP-Standard gib, der die benötigte Bandbreite schafft, was nachvollziehbar ist.
 
Hallo

Drewkev schrieb:
Das ist kein direkter Vergleich woher weißt du, dass DSC überhaupt aktiv war?
Nimmst du mich jetzt auf den Arm ?
Sicher ist es ein direkter Vergleich wenn ich auf dem gleichen Monitor zwischen DP 1.4 und HDMI 2.1 umschalte.
Ich weiß das DSC aktiv war weil DP 1.4 ein 4K Bild mit 144 Hz und 10 Bit Farben ohne DSC nicht übertragen kann.

Drewkev schrieb:
Und dass HDMI und DisplayPort ohne Eingreifen ohnehin erstmal anders aussehen, weißt du auch?
Ich weiß dass das Unsinn ist, solange man beide gleich einstellt (Farben/Bildwiederholrate/Dynamikbereich/etc.).
Aber gut, wir sind jetzt schon scheinbar soweit das du schon nach dem letzten Strohhalm greifst den du findest.

Ich frage nochmal: Die Unterschiede sind minimal, aber wieso sollte man DP 1.4 nutzen wenn der Monitor auch HDMI 2.1 hat ? Sag mir nur einen guten Grund.

Grüße Tomi
 
Zuletzt bearbeitet:
Na, DSC wird ja als verlustfrei beworben, daher meine Fragen. Sonst wäre die Antwort ja klar.
Wobei da auch steht "optisch verlustfrei". Also ist es vielleicht ein "es sollte nicht sichtbar sein, aber es ist verlustbehaftet".
 
Hallo

Mosed schrieb:
Wobei da auch steht "optisch verlustfrei". Also ist es vielleicht ein "es sollte nicht sichtbar sein, aber es ist verlustbehaftet".
DSC hält den ISO/IEC 29170 Standard ein, bzw. richtet sich danach, nach diesem Standard sollten 75% der Menschen keinen Unterschied sehen.
Mittlerweile wurden aus dem Test für den ISO/IEC 29170 Standard aber Testbilder raus genommen wo man den Unterschied relativ stark sieht.

Drewkev schrieb:
Weil DSC ist definitiv verlustbehaftet, aber mit dem Ziel dass es für den Menschen nicht erkennbar ist und das ist bei der absoluten Mehrheit auch der Fall.
Na also, jetzt kommen wir der Sache schon näher, du siehst langsam ein das...

Drewkev schrieb:
DSC ist verlustfrei, das sieht man nicht.
...dieser pauschale Unsinn nicht für alle Menschen und jede Hardware/Situation stimmen kann.

Es hat einen Grund wieso DSC in der Medizintechnik bei Befundungsmonitoren nicht zugelassen ist, DSC ist nicht gut genug.
Ich habe mir Röntgenbilder von Gefäßchirurgen auf Monitoren mit DSC angesehen und das war optisch eine Katastrophe.
Ja, das ist ein extremer Sonderfall, es zeigt aber eindrucksvoll die Grenzen von DSC und das DSC nicht verlustfrei arbeitet.
Bei (schnellen) Spielen funktioniert DSC ganz gut, einem Fotografen/Videobearbeiter rate ich aber dringend von DSC ab.

Grüße Tomi
 
Zuletzt bearbeitet:
Drewkev schrieb:
Wo? Weil DSC ist definitiv verlustbehaftet, aber mit dem Ziel dass es für den Menschen nicht erkennbar ist und das ist bei der absoluten Mehrheit auch der Fall.

Ja, dann ist es sicher so gemeint. Z.B. hier steht es, aber halt mißverständlich:
https://support.nvidia.eu/hc/de/art...ion-DSC-Unterstützung-auf-NVIDIA-GeForce-GPUs

Display Stream Compression (DSC) ist eine visuell verlustfreie Komprimierungstechnik


Vielleicht sollte ich auch mal HDMI probieren wegen der weißen Flashes. Da VRR unterstützt wird, sollte das ja kein Problem erzeugen.
 
Zurück
Oben