4k 60Hz auf FHD 120Hz

So nun habe ich getestet Assassins creed Vall und Odisay
er schmeißt mich bei der Einstellung auf FHD und 120Hz immer wieder auf den Desktop
stelle ich den Monitor mit um, kann ich das Spiel Starten.
Bedeuten wohl ich muss den Monitor immer mit umstellen.

SI Sun schrieb:
120 Hz spielst oder arbeitest, desto weniger wirst du 60 Hz sehen wollen.
Lohnt sich das für alle Spiele, auch wenn die mit Xbox Controller gespielt werden.
Also ist die 120Hz Einstellung der 4K Einstellung vor zu ziehen
 
Es kommt manchmal auf die Spiele an. Je schlechter die programmiert sind, desto mehr Probleme kannst du haben.

Bei einem gut programmierten Spiel musst du nur "Vollbild" und anschließend "1920x1080" wählen.
Wenn das nicht wirkt, musst du das Spiel neu starten. Vollbild und 1920x1080 müsste gespeichert bleiben.
Dann kannst du ganz normal spielen bzw. mit VSync testen, ob es bei 120 oder 60 FPS hängen bleibt.

Es spielt keine Rolle, ob du mit Maus oder Controller spielst. Mit 120 Hz ist alles direkt flüssiger.
Wenn das Spiel schlecht programmiert ist, bleibt es bei 60 FPS oder 30 FPS limitiert. Bei Konsolen Ports kann es auch sein, dass das Spiel auf 60 FPS optimiert wurde und mit 120 Hz und 120 FPS plötzlich doppelt so schnell läuft... dann darfst du dich bei den Entwicklern bedanken.

Grundsätzlich sind mehr Hertz immer besser!
120 Hz und 60 FPS sind besser als 60 Hz und 60 FPS. Optimal sind natürlich 120 Hz und 120 FPS.
 
Nickel schrieb:
Ich mag lieber 60Hz und bessere Bildqualität
Glaube da gibt's nicht wirklich ein großen Unterschied
Meine das mal gelesen zu haben.
Glaube die meisten hier spielen eher mit niedrigen
Auflösung da für mehr Hz

Achja alsoeegal welches Spiel ich auf FHD setze schmeißt mich auf Den Desktop muss wohl wirklich Die Anzeige mit umstellen
Ergänzung ()

Glaube ich lasse den Desktop einfach auf FHD mit 120hz
Mir gefällt das wie flüssig das läuft.
 
Zuletzt bearbeitet:
@Nickel
Wenn es ein statisches Bild ist, macht es keinen Unterschied wie viel Hertz man hat.
Sobald sich das Bild bewegt, sind mehr Hertz besser = die Bildqualität wird besser.

Ich glaube du meinst, dass du bei der Wahl zwischen besserer Bildqualität und vielen Hertz beim selben Preis lieber die Bildqualität bevorzugst.
Dann ist die Frage, was du mit Bildqualität meinst.

  • Lieber 10 Bit und 100% Adobe RGB für Photoshop, statt 8 Bit und 90% Adobe RGB? Verstehe ich.
  • Lieber 10 Bit und 100% Adobe RGB, aber 60 Hz für competitive Games, statt 8 Bit und 90% Adobe RGB, aber 144 Hz? Verstehe ich nicht. Verschwommene 10 Bit können nicht besser als scharfe 8 Bit sein.
Deshalb habe ich auch geschrieben, dass mehr Hertz grundsätzlich besser sind.
Der Vergleich muss verhältnismäßig sein. 144 Hz und TN mit 6 Bit vs 60 Hz und OLED mit 10 Bit wäre extrem unverhältnismäßig.
 
MSI-MATZE schrieb:
Mir gefällt das wie flüssig das läuft
Nimm doch WQHD 120 Hz, bester Kompromiss aus Bild und Leistung. Kann der C8 auch mit HDMI 2.0.

Ah, sorry. Das geht wohl beim C8 doch noch nicht. Beim C9 ist das ganz nett.
 
cvzone schrieb:
Nimm doch WQHD 120 Hz, bester Kompromiss aus Bild und Leistung. Kann der C8 auch mit HDMI 2.0.
Hab es versucht geht leider nicht auf 120hz
Glaube das packt der nicht
Wo hast du das gelesen
 
@cvzone
Dadurch wird das Bild aber ziemlich unscharf.
Von 4k auf 1080p ist es noch okay, weil vier Pixel zu Einem zusammengefasst werden.
Von 4k auf WQHD wird es mal zu einem und mal zu zwei oder vier Pixel zusammengefasst. Das Bild wird ziemlich unscharf. Physikalisch gesehen funktioniert das also nicht.
Siehe hier:
1618686758050.png

Bild Quelle: https://duckduckgo.com/?q=4k+1080p+scaling&t=vivaldi&iar=images&iax=images&ia=images
 
SI Sun schrieb:
Dadurch wird das Bild aber ziemlich unscharf.
In der Theorie mag das stimmen, in der Praxis merkst du davon nahezu nichts. Nutze ich jetzt mit einem LG C9 aus relativ kurzer Distanz schon eine ganze Weile. Geht aber wohl beim C8 eh noch nicht.
 
Also ist FHD gegenüber 4K UND QHD vor zu ziehen
Ergänzung ()

Der C9 hat der nicht noch DTS glaub letzte Serie mit DTS
 
@cvzone
Hängt natürlich von den Augen, der Distanz zum Display und dem Inhalt ab.
Ich sehe das bei meinen textlastigen Spielen schon sehr.
Bei irgendwelchen Shootern oder RPGs würde ich das wahrscheinlich weniger sehen.
Dennoch kommt nichts gegen die native Auflösung an. Nur nativ bleibt alles gestochen scharf.

Für mich kommt daher nur 3840x2160 oder exakt die Hälfte (Viertel) 1920x1080 infrage.
 
FHD hat halt deutlich weniger Pixel als Ultra HD (4K) und ist dementsprechend "pixeliger", aber du kannst mit dem C8 halt 120 Hz nutzen, das ist flüssiger.

Von daher ist es eben eine Abwägung zwischen Qualität und Flüssigkeit. Man kann pauschal nicht sagen, dass FHD zu bevorzugen wäre. 4K braucht auch sehr viel Leistung. Da du eine RX6800XT hast kannst du aber auch 4K mit 60 Hertz problemlos nutzen. Ist halt nur nicht ganz so flüssig.

Ja, der C9 ist das letzte Modell mit DTS.
Ergänzung ()

SI Sun schrieb:
Ich sehe das bei meinen textlastigen Spielen schon sehr.
Der C8/C9 ist halt mindesten ein 55 Zoll Gerät. Da sitzt man nicht direkt davor. Wenn du z.B. einen 4K Monitor hast mit kurzem Sitzabstand, dann dann das durchaus anders aussehen.
 
Zuletzt bearbeitet:
Ich habe ein 65 Zoll
Glaube die Mehrheit zockt hier lieber mit WQHD und full HD auf 144 Hz
Glaube hier war mal eine Umfrage.
 
Stimme ich Dir zu. Mit dem C9 kann ich ja dank HDMI 2.1 mit meiner RX 6900XT jetzt 4K mit 120 Hz nutzen. Aber in anspruchsvollen Spielen hat man ja hier nur sehr selten 120 FPS, daher stelle ich auch gelegentlich auf WQHD@120 runter.

FullHD ist mit deiner guten Grafikkarte allerdings schon fast etwas Overkill :D
 
cvzone schrieb:
FullHD ist mit deiner guten Grafikkarte allerdings schon fast etwas Overkill
Da gebe ich dir recht 😋
Aber extra den c9 zu kaufen wäre Geldverschwendung
Und dann könnte ich meine 5.1 nicht mehr nutzen bei Spielen
Da die auf 2.0 hdmi basiert was sehr schade wäre
 
MSI-MATZE schrieb:
Da die auf 2.0 hdmi basiert was sehr schade wäre
Extra deswegen neu kaufen ist aktuell sicher nicht sinnvoll. Dafür sind C9,CX,C1 nicht so viel besser. Aber deine HDMI 5.1 Lösung wird sicherlich auch mit aktuellen Geräten funktionieren, ich wüsste nicht warum das nicht mehr gehen sollte.
 
Weil ich den PC über die cinebar Pro anschließen müsste und die geht wiederum an den TV.
So könnte ich die Bildqualität nicht bekommen.
 
MSI-MATZE schrieb:
So könnte ich die Bildqualität nicht bekommen.
Du kannst aber den PC direkt an den TV anschließen und die Cinebar Pro per HDMI ARC nutzen. So könntest du bei einem aktuellen Gerät HDMI 2.1 nutzen und weiterhin die Cinebar verwenden.

Da diese kein eARC kann, wirst du so keine HD Tonformate (z.B. Dolby TrueHD) nutzen könnenund leider auch kein PCM 5.1, was ja für den PC wichtig ist. Mit der Dolby Atmos App kann man jedoch 5.1 Dolby Digital Plus übertragen, auch wenn die Soundbar ggf. kein Atmos kann.

5.1 ginge also auch weiterhin über einen Umweg. Aber Neukauf nur wegen HDMI 2.1 wäre für mich auch derzeit kein Kaufgrund.
 
cvzone schrieb:
Du kannst aber den PC direkt an den TV anschließen und die Cinebar Pro per HDMI ARC nutzen. So könntest du bei einem aktuellen Gerät HDMI 2.1 nutzen und weiterhin die Cinebar verwenden.
Hab ich schon versucht macht er Leider nicht
Weil der PC den TV als Tonträger erkennt leider und so nicht auf 5.1 stellt warum auch immer
 
Zurück
Oben