Warum sehen Spiele mit Downsampling besser aus?

flyyy

Lt. Junior Grade
Registriert
Okt. 2014
Beiträge
345
Ich habe mir diesen Artikel bei PCGH durchgelesen und weiß, was Downsampling macht.
Mithilfe von Downsampling bekommen Sie in diesen und allen anderen Spielen den Informationsgehalt eines deutlich höher aufgelösten Bildes zu Gesicht
Die Frage, die ich mir stelle: Warum funktioniert die Bildberechnung bei FUllHD denn nicht schon so, dass der maximale 'Informationsgehalt' ausgegeben wird? Das ist doch ein schlechter Witz.

UHD-Monitore sind mittlerweile ganz gut bezahlbar, aber wenn ich das richtig verstehe, dann ist ja die Pixeldichte eines einfachen FullHD-Monitors gar nicht direkt der begrenzende Faktor. Ein 4k-Ingame-Screenshot sieht auch auf meinem FullHD-23"-Monitor genial ist.

Wie sieht es eigentlich mir diesem Vergleich aus: WQHD vs. 4k-Downsamping@FullHD?
 
Nein du weist nicht was Downsampling macht sonst würdest nicht die Fragen stellen.

Hier ein Bild was zeigt was auch Downsampling kann ...
Rechts das downgesamplete .
ce105534c3fc81b6.png

Wenn man mehr Detailinfos hat dann kann man diese auch besser Komprimieren ... und erhält somit ein besseres Ergebniss als wenn man gleich 3x die Berechnungen vergisst.

Oder ganz anders ausgedrückt ...

im Fall ohne Downsampling wird eine Berechnung durchgeführt die das Ergebniss 4 hat .. das Ergebniss ist für diesen einen Punkt richtig ... betrachtet aber nicht die benachbarten punkte und schon kann der nächste z.b. mit 9 ein ganz anderes Ergebniss haben.

Würde man den gleichen Punkt per Downsampling berechnen erhält man vielleicht 1x die 4 , 1x die 3 , 1 x die 5 und 1x die 6 ... rechnet die Quersumme aus und kommt auf 4,5 .. das gleiche passiert auch bei der 9 ... dort kommt man nun auf 8 z.b. und bemerkt oh der Unterschied ist nicht mehr so stark also der Farbübergang ist sanfter.
 
Zuletzt bearbeitet:
an den grenzflächen stehen mehr informationen zur verfügung um zu entscheiden wie genau ein pixel am ende aussehen soll. oder so in der art.

oder anders gesagt muss das intern berechnete bild an die pixel des monitors angepasst werden was immer nur eine näherng sein kann. je mehr informationen man hat desto besser kann man das machen. man kann es auch falsch machen wenn zum beispiel strukturen so fein sind das diese beim herunterrechnen verloren gingen. dafür gibt es dann noch eine schärfe einstellung.
 
Zuletzt bearbeitet:
Weil bei Downsampling die Farbe eines Pixel aus vier berechnet wird (bei 2x2 DS). DAdruch hast du pro ausgegebenen Pixel mehr Informationen, aus denen man die Farbe genauer berechnen (wichtig bei Übergängen) -> Bild sieht besser aus. Problem: Diese "extra" Informationen müssen erstmal berechnet werden. -> FPS gehen in den Keller.

Kurz zur Technik (vereinfacht): Die CPU liefert ein Bild ohne Auflösung (Netz auch Linien etc.). Die Grafikkarte legt darüber ein Gitter mit der Größe der Auflösung. Dann berechnet die Graka für jeden Punkt des Gitters den Farbwert. Bei Full HD entstehen so 1920x1080 Werte, die dann Ausgegeben werden. Über Downsampling (oder bestimmte AA-Modie) wird das Gitter feiner . Dadurch berechnet die Graka für mehr Punkte Farbwerte (bei 2x2 sind es schon 3840 x 2160 Farbwerte, dass vierfache!). Und mehr Farbwerte heißt, mehr Informationen. Und die kann man dann verrechnen.
 
Zuletzt bearbeitet:
Ein Pixel repräsentiert ja beim Zeichenprozess nicht einen kleinen Punkt oder einen Strahl sondern eigentlich einen Kegel. Sämtliche sichtbaren Oberflächen, die sich in diesem Kegel befinden, tragen zur Helligkeit des Pixels bei. Die Helligkeit eines Pixels entspricht dabei der "mittleren Helligkeit" aller sichtbaren Oberflächen, die sich iinnerhalb des Kegels des Pixels befinden. Deshalb müsste die GPU bei der Bildsynthese eigentlich für eine perfekte Bildqualität die Helligkeit der sichtbaren Oberflächen über den gesamten Pixel mitteln. Dieses Mitteln ist jedoch nicht mehr exakt berechenbar, weshalb man auf einfache Approximationen zurückgreift.

Die einfachste Näherung ist es diese mittlere Helligkeit innerhalb des Pixels durch die Helligkeit an dem Punkt der Pixelmitte zu approximieren. Dadurch wird die Helligkeit des Pixels nur von der Helligkeit an einem unendlich kleinen Punkt beziehungswiese von einem unendlich dünnen Strahl beeinflusst; das übrige Volumen des Kegels, was der Pixel eigentlich darstellt, wird ignoriert. Weicht die tatsächliche mittlere Helligkeit des Pixels stark von der berechneten Helligkeit an dem einzigen Punkt ab, so entsteht ein großer Fehler, der sich auch wieder in schlechterer Bildqualität äußert.

Bessere Approximationen, wie Downsampling, berechnen diese mittlere Helligkeit des Pixels dadurch, indem sie die Helligkeit an mehreren Punkten innerhalb des Pixels berechnen und dann mitteln. Da nun mehr Punkte für die Berechnung der mittleren Helligkeit herangezogen werden, ist auch der Fehler bei der Mittelung geringer.

Allerdings schätzt man auch beim Downsampling die mittlere Helligkeit einer Fläche durch die Helligkeit an wenigen Punkten. Je nachdem wie die Szene aufgebaut ist, kann der Fehler weiterhin groß sein. Somit ist man immer noch etwas auf den Szenenaufbau angewiesen, damit Downsampling gut funktioniert.
 
Zuletzt bearbeitet:
Zurück
Oben