4k Display und 1080p Gaming, Schlechteres Bild durch Interpolation?

Faktor 1: Panel und Interpolationsfähigkeit nicht vergleichbar ("einen nativen Full HD Monitor" kann vieles und nichts bedeuten - jeder Monitor ist anders)
Faktor 2: subjektives Empfinden

PS: Ich spiel selbst mit meiner ollen Kiste (Athlon X4 und 5850) manchmal in 4k per Downsampling (kostet noch mehr Leistung als Nativ; meistens reichts aber nur für 2560x1440). Es kommt immer auf die Settings und die Vorlieben an.
4k-DS+ niedrigere Settings sehen in manchen Spielen deutlich besser aus als FullHD und höhere Settings. Auch hier wieder die Subjektivität beachten.

Allgemein gilt: Du willst quasi einen Pixel (1080p) auf vier Pixeln des 4k Monitores darstellen. Natürlich geht da rein logisch Information "verloren"/bleibt ungenüzt.
Letztendlich wirst nur du dich und dein Auge selbst überzeugen können (wobei eher nicht, da du ja sämtliche FullHD Monitore als Vergleich daheim hinstellen müsstest um das zu beurteilen ;)).
 
Also 4k Gaming@ high fällt aus

Deswegen muss ich eben wissen, ob Interpolation auf einem 4k Monitor schlechter aussieht, als Full HD auf einem Nativem. Früher war das so....
 
Ich spiel auch einige Sachen in 4k@High... kein Problem (für mich ;)).
Mit ner 980/290X könnte ich "für mich" quasi sogut wie alles in 4k@High zocken.

Aber wenn du eben z.B. 144FPS willst, wird das nix.

Wie willst du "die Interpolation besser als FullHD nativ" bewerten?
Es gibt drölfzig Bazillionen Konstellationen davon.
Schau dir mal an wieviele Monitore es gibt... ein "es ist so" wirds nicht geben.
Einmal ja, einmal nein - anhand von objektiven Messmethoden.
JEDOCH: Subjektiv (und nur das ist in meinen Augen relevant) noch viel mehr dazwischen.
Ich hab schon ach so tolle (teure) Bildschirme/TVs gesehen. Find mein 300€ Teil aber nicht schlechter/bedeutend schlechter.

Beispiel:
objektiv gibt es einige Lautsprecher welche XY überlegen sind
objektiv gibt es einige Monitore welche XY überlegen sind
objektiv...

Und was passiert: ich empfinde XY für mich besser. Der andere sagt: "nö ist blöd".
Schau dir doch die FPS Diskussion/BQ Diskussion an. Manche fassen alles unter 120fps nichtmal mit ner Greifzange an...mir reichen 30fps auch sowas von noch aus.

Kannst dich ja mal bei prad.de einlesen... das sind eig. die Monitorexperten. Dort in den Testberichten kannst du dann "Ergebnisse objektiver Messmethodik" nachlesen.. inwieweit das dann letztendlich für dich genauso aussehen sollte, da kann man nur spekulieren. vllt. ja, vllt. nein.
 
Zuletzt bearbeitet:
jedes upscaling ist ein Qualitätsverlust! wo nichts ist kannst du nix hinzufügen ... fällt nur bei 4k nicht so extrem aus da einfach aus 1 pixel 4 pixel werden. Ob einem das aber stört muss man selber wissen.

Hinzu kommt das auch die Ansteuerelektronik eines Monitors nur in nativer Auflösung das beste Ergebnis liefert.

Also objektiv führt ein Upscaling immer zu einem Qualitätsverlust! Subjectiv muss das jeder selber entscheiden! Heute ein 4k Monitor zu holen ist wie früher die ersten HDready Geräte die "Early Birds" waren die angeschiessenen!

Hast du keine Anwendungen ( Grafik / Video / oder Games ) die du auch nativ in der Auflösung fahren kannst bringt dir das 0,garnix! und in 1 bis 2 Jahren kommen dann die ordentlichen Geräte für einen Bruchteil auf den Markt!
 
Zuletzt bearbeitet:
die Idee ausm Opener ist genauso gut wie ne alte Röhre per Hosidenkabel an ne 4K-Quelle anzuschließen. in beiden Fällen limitiert das schwächste Glied der Kette die maximale Qualität.
 
@Luxusspur
Deine Ausführung ist an sich schon korrekt.
Jedoch:
Nehme das Upscaling eines Highend Gerätes ("gutes Panel") und vergleiche es mit dem nativen eines absoluten lowest-end Ding ("schlechtes Panel")...
Ich glaube, dass ersteres da den Ring als Sieger verlässt ;) Auch "objektiv" gesehen.
 
Upscaling liefert am Ende immer das schlechtere Resultat als native Ausgabe. Fals es einem anders vorkommt hatte man entweder zuvor ein sehr sehr schlechtes panel oder man braucht eine Brille.

Upscaling bedeutet halt das ein panel (oder graka fals eingestellt) die benachbarten pixel neben den nativen berechneten Pixeln rät. Richtig, es rät welche pixel den Platz beim upscaling ausfüllen müssten. Das ist meistens ein Mittelwert zwischen den benachbarten Pixeln. Das Problem ist jedoch das dies bei einigen Szenen zu groben Blur Effekten kommen kann.

Wenn deine graka also ein 1080p Bild berechnet, wird es nicht besser aussehen nur weil dein monitor plötzlich ein paar pixel rein raten muss. Sonst würden wir ja unsere grakas alles nur 720p Bilder berechnen lassen.

Obriges betrifft upscaling. Native Ausgabe = optimum.
 
Zurück
Oben