HDMI 2.1 Unterschied

  • Ersteller Ersteller PhilsBadMan
  • Erstellt am Erstellt am
P

PhilsBadMan

Gast
Hallo!

Ich habe ein Frage, die vielleicht etwas dumm ist.

Ich habe meinen PC per HDMI 2.1 Kabel an meinen Monitor angeschlossen. Mein Monitor hat nur 60 Hz, deshalb ist es eigentlich egal wie gut das HDMI ist.
Zum Vergleich habe ich ein HDMI 2.0 Kabel und ich muss sagen, dass ich bemerke, dass ich mit dem HDMI 2.0 Kabel mehr FPS erreiche als mit dem HDMI 2.1 Kabel. Das HDMI 2.1 Kabel hat desöfteren FPS Drops.
Schlussendlich ist es egal, da ich sowieso nur 60 Hz habe.

Trotzdem möchte ich gerne wissen, ob die Kabel einen Unterschied machen.

Ich benutze eine Nvidia GTX 1050 Ti OC Grafikkarte.
 
FPS Drops können nicht von einem HDMI Kabel kommen. Das ist Einbildung. Oder einfach unterschiedliche Testszenarien.
 
  • Gefällt mir
Reaktionen: ReignInBlo0d und Viper1982
An sich ist das 2.1 Kabel unnötig für mich oder? Das 2.0 Kabel reicht aus oder?
 
Es gibt keine HDMI 2.0/2.1 Kabel. Es gibt Kabel, die eine Bandbreite XY garantieren. Da kann ein mit 2,1 gelabeltes Kabel auch schon bei FullHD / 60 Hz versagen, wenn es schrott ist.

Darum sollen bei Kabel keine HDMI Versionen angegeben werden. Passiert aber eben oft. Ist aber albern.
 
  • Gefällt mir
Reaktionen: ReignInBlo0d, Siran und UNDERESTIMATED
HDMI 1.4bHDMI 2.0bHDMi 2.1
Einführung201120162017
Max. Datenrate8,16 Gb/s14,4 Gb/s38,4 Gb/s
Auflösung4096×2160p / 24 Hz
3840×2160p / 30 Hz
2560×1600p / 60 Hz
3840×2160p / 60 Hz
1920×1080p / 48 Hz
(3D)
7680×4320p / 60 Hz
3840×2160p /120 Hz
(3D)
Neue Audio-
Formate
High Bitrate Audio (HBR),
Abtastrate 384/768 kHz,
1-Bit-Audio
32-Kanal-Audio,
Abtastrate 1536 kHz
32-Kanal-Audio,
Abtastrate 1536 kHz
Neue Farb-
formate
Farbunterabtastung YCbCr 4:2:2Farbraum ITU-R BT.2020RGB mit je 14 Bit,
Farbunterabtastung YCbCr 4:2:0,
Video-Kompression DSC 1.2
14 Bit / 16 Bit
Farbtiefe
Nein
NeinJa
4K 3D 50/60pNeinNeinJa
32-Kanal-Audio-
Unterstützung
NeinJaJa
HDR (High
Dynamic Range)
NeinjaDynamic HDR
 
BlubbsDE schrieb:
FPS Drops können nicht von einem HDMI Kabel kommen. Das ist Einbildung. Oder einfach unterschiedliche Testszenarien.

Könnte mir höchstens ausmalen, dass in dem Fall HDR ausgehandelt wird und das eben an der Leistung nagt.
 
Allein das eine 1050ti HDMI 2.1 nicht unterstützt und es spezifischen HDMI Kabel nicht gibt sollte dafür sorgen das es keinen Unterschied gibt :D

was sein kann das ein Kabel eine so geringe Bandbreite hat das evt. 10bit/ erweiterte Farbräume nicht verfügbar sind und man deshalb mehr Performance hat hab ich noch nie gehört aber theoretisch möglich.
 
Habe es jetzt mehrfach in einem Spiel, das ich immer spiele getestet und das "2.0" Kabel hat keine FPS Drops.
Das "2.1" Kabel hakt manchmal kurz.
 
Es gibt aktuell weder GPUs noch Monitore die HDMI 2.1 unterstützen würden. Auch dürfen Kabel nicht mit HDMI 2.1 bezeichnet werden, sondern ausschließlich als "Ultra High Speed HDMI" Kabel. Wenn der Hersteller es als HDMI 2.1 bezeichnet hat ist Vorsicht geboten, würde mich nicht wundern, wenn das ein Billig-Kabel ist. Dass es dadurch zu Framedrops kommt wäre mir neu, aber evtl. verliert es kurzzeitig die Synchronisierung und das macht sich dann in Drops bemerkbar. So oder so würde ich es austauschen oder am besten gleich zurückschicken.
 
Weder dein Monitor noch deine Grafikkarte sind HDMI 2.1 fähig. Nochdazu gibt es keine HDMI 2.1 Kabel. Den nutzen kann sich also jeder mit 3 Gehirnzellen selber zusammenpopeln.

Nutze einfach einen ordentlichen PC Standard und somit Displayport. HDMI ist für die Verbindung zwischen Blu-Ray Player oder Spielkonsole und Fernseher gedacht und hat zwischen PC und Monitor eigentlich gar nix zu suchen.
 
Humptidumpti schrieb:
Unnötiges Komplettzitat entfernt. Bitte Regeln beachten!

Die meisten verwenden doch HDMI oder?
 
Zuletzt bearbeitet von einem Moderator: (Unnötige Zitate entfernt!)
Da deine Grafikkarte den HDMI 2.1 Standard nicht kann, würde ich einfach jetzt mal frech davon ausgehen, daß du ein defektes Kabel erwischt hast oder aber es eine minderwertige Qualität hat.

Zwar braucht es nicht unbedingt Kabel von Oelbach oder Monster, aber wenn ich als Nutzer eine Qualität xyz erwarte, darf man nicht Sparfuchs an erste Stelle packen.

Nachtrag: ein "die meisten nutzen" gibt es nicht. Alles hängt von deiner Hardware ab und was du selbst erwartest.

Meine inzwischen vorhandenen zwei 24" Acer Monitore können max. Full-HD und 75 Hz, haben daher "nur" HDMI und VGA als Anschlüsse.

Könnten die beiden 144 Hz, wäre auf jeden Fall ein entsprechender DisplayPort dran oder bei älteren Monitoren dann ein voll belegter DVI.
 
@PhilsBadMan
Nur weil es die meisten nutzen ist es noch lange nicht richtig. Wenn ich es richtig mache nutze ich auch Standards die für die Anwendungen entwickelt wurden.

Allein wenn ich mir ne moderne Grafikkarte angucke und 2-3 Displayport Ausgänge und nur einen HDMI Ausgang vorfinde sollte ich mir doch Gedanken machen wieso das so ist.
 
PhilsBadMan schrieb:
Die meisten verwenden doch HDMI oder?

Möglich. Was die meisten machen ist aber selten gut oder richtig. Die erste Schnittstelle beim PC, um einen Monitor zu verbinden, ist Displayport. Früher war es DVI. Und wenn nichts anderes geht, muss man eben HDMI nutzen.
 
Zurück
Oben