News GeForce 344.48 bringt DSR auf Kepler und Fermi

4K,Gsync,IPS,144Hz ...das würde ich sofort kaufen.
 
Nein, VA-Panel 144Hz und G-Sync, weil besserer Kontrast. :king:

Haben weitere Leute schon Abstürze bei Far Cry 3 mit 4K und 8*MSAA reproduzieren können? Es ist zwar nur Bild, Sanduhr, Sanduhr, Bild, Sanduhr usw., aber nur zum Test halt. Interessieren würde mich das auch bei anderen heftigen Spielen, z.B. BF3, 4, Crysis 1 und 3 - 8*MSAA und 4K.

Zumindest ging Minecraft auf 4K mit Shadermod. (Und wenn da ein Fehler mit Open-GL und Code auf der 780 kommt, liegt das am Flashplayer - selbigen neu installieren. Hat nichts mit der schlechteren Stabilität des 344.48 zu tun.)
 
R1c3 schrieb:
@r4yn3

Bei DSR geht es ja auch nicht primär um schärfere Texturen, es ist einfach die effektivste, da das gesamte Bild ohne Ausnahme erfassende, Kantenglättungsoption die es gibt, die schärferen Texturen sind halt oftmals ein Resultat der höheren Auflösung bei der das Spiel dann schlicht höher aufgelöste Texturen verwendet, deswegen wirst du bei einigen Spielen keinen großen Unterschied finden weil die Texturen bereits bei FullHD auf maximaler Qualität waren und keine höheren mehr verfügbar sind.
Was aber ein Umstand ist, was ich nicht nachvollziehen kann. Wenn ich die Texturen im Spiel aufs Maximum stelle, wie kann es dann sein dass das Spiel bei höherer Auflösung noch mal höhere Texturen besitzt?

Bezüglich Sync. Mit Nvidia-only könnt ich leben. Mit der begrenzten Auswahl an Monitoren in Bezug auf Panels jedoch weniger. Aber gut, ist ein anderes Thema.

UltraWurst schrieb:
Das sieht auf den Bildern so aus, als ob du keine Anisotrope Filterung verwendest. Diese würde ich mal auf 16x stellen. Dann sollten die Texturen auch ohne DSR/SSAA scharf sein.
Mea culpa...das ist mir jetzt sogar peinlich. Aber stimmt, du hattest Recht. Hab wohl bei der letzen Treiber Neuinstallation übersehen das im Treiber wieder zu forcieren.
 
Wenn ich die Texturen im Spiel aufs Maximum stelle, wie kann es dann sein dass das Spiel bei höherer Auflösung noch mal höhere Texturen besitzt?

Naja, weil du die Texturen für deine jetzige Auflösung in maximaler Qualität wählst, wenn du jetzt 4k simulierst und er Texturen in 4k Auflösung hat wird er diese nun verwenden welche vorher nicht genutzt wurden weil die Texturen zu groß für deine Auflösung waren.
 
Glaubst du das oder weißt du es? Mir kams bislang so vor, als wähle ich Auflösung und Texturqualität seperat. Weswegen mir das ziemlich seltsam vorkommen würde.
 
Also eigentlich bedeutet eine bestimmte Textur-Qualität in den Grafikoptionen, daß eine bestimmte Auflösung bei den Texturen verwendet wird, unabhängig von der verwendeten Bildschirmauflösung.

Mag sein, daß es Spiele gibt, die das koppeln. Aber das ist dann eher die Ausnahme als die Regel.
 
So wurde es mir mal erklärt, ich würde es jetzt nicht als faktisches Wissen bezeichnen, aber irgendwoher müssen ja die besseren Texturen stammen, man muss sich ja nur mal die Bioshock Infinite Vergleichsbilder anschaun die es im CB Test gab, da sieht man einen guten Unterschied.
 
Man hat auch bei 1080p die höchsten Texturauflösungen, aber nicht ÜBERALL: wozu hat ein paar Zeilen hier drüber jemand auf die Anisotropy hingewiesen ?
In Abhängigkeit von Winkel und Entfernung wird ein guter Teil der Texturen (alle weiter als ein paar "Meter" auf der Z-Achse liegen) nämlich "gemipt".
Das heißt man hat nur bei einem klinen Teil die höchste Texturstufe, alles was ein wenig weiter entfernt liegt ist die nächts kleinere Mipmap (google: multum in parvum). Das kann man gut sehen, wenn man die Anisotropi statt auf 16 mal auf 2x oder 4x stellt und dann in einem spiel geradeaus läuft und auf die "Bodenwellen" guckt, da sieht man schön die Übergänge auf die nächste MIP. Es wäre ja sinnlos ein Texel aus einem Polygon zu berechnen, was nur 200 Pixel enthält und dafür eine 2MPx Textur zu nehmen, da wird natürlich eine kleiner genommen. Dieses Polygon hätte bei 4K natürlich 4x soviele Pixel und deswegen eine andere Textur.
Das passiert auch bei 4K, aber da passiert es später und hat prozentual gesehen mehr vollaufgelöste Texturen.
Man kann das auch im NVinspector forcieren, weiß gerade nicht wie die Option heißt.
Und zwar hatte man bei Downsampling ohne MIP-Anpassung einen schärfeverlust, den man dan mit einem Bias-Wer wieder nachschärfen
konnte.
 
Zuletzt bearbeitet:
Hab meine 570 mal DSR testen lassen. Dämlicherweise hab ich Esel ausgerechnet WoT damit probieren wollen - die UI ist natürlich völlig unangepasst. Außerdem ist meine 570 auch ohne DSR schon arg belastet. :evillol:


Ansonsten, da wo das Spiel die UI anpasst, ist es natürlich ideal.
 
Übrigens hatten die ersten richtigen 3D Karten keine Anisotropischen-Filter. Die Filterten stumpf bilinear, d.h man hatte dann bei einer
extrem geneigten Fläche nicht nur Pixelmatsch, sondern die Textur war auch noch perspektivisch verzerrt und es gab abrupte
Übergänge (na, wer kann sich noch an die Zeit erinnern, wo man beim ersten Serious Sam mit dem AF-Filtern zwischen Bilinear und
Trilinear experimentiert hat, um genug Leistung zu haben ?)
Das ist immer noch eine Heidenarbeit im Rasterisierer alle Pixeltapeten ordentlich zu Filltern, aber nicht nur die Zahl der Shader nimmt
ja stetig zu, es kommen auch immer mehr Rasterisierer und Textureinheiten dazu.
Heutztage kann man glaube ich fast mit jeder Grafikkarte global 16xAF einstellen

BTW: ich habe meine Desktop gerade von 1080p auf 1440p mit 25% Gauß ge-DSR-t und probiere aus, wie man damit arbeiten und surfen
kann. Vieleicht spare ich mir einen echten 1440p Monitor ;=)
Denn es geht ziemich gut- sogar der kleine Text im Browser ist gut zu lesen. Text und Tabellenkalkulation
könnte man so auch machen, nur Grafikbearbeitung geht so nicht Pixelgenau.
 
Tjo, richtig geil kommt downsampling in GTA 4!

Aber es gibt auch viele Spiele, wo es nicht so viel bringt.
Muss man halt ausprobieren - und ruhig mal die Ingame AA Modi dafür deaktivieren.
 
Kann dir da nur zustimmen. Grade eben mal in GTA IV getestet und war echt überrascht dass es doch so einen rießen Unterschied macht. Hoffe das ist bei GTA V nicht nötig, denn ich befürchte dass meine GTX780 dabei dann sowas von abkacken würde ...
 
Ab wann ist denn DSR besser als 4x Supersampling?

Spiele manche alte Spiele auf meinem 2560x1440 Rog Swift mit 4x Supersampling per Inspector.

Grundsätzlich ist ja echtes Supersampling besser als Downsampling, aber auch deutlich ressourcenschwerer. Trotzdem kann es ja sein, dass es bei DSR einen Sweet Spot gibt, so dass die Quali gleich gut ist oder sogar besser - jedoch weniger Ressourcen zieht.
 
Ich war eigentlich der Meinung, SuperSampling in einer bestimmten Form bringt genau die selben Ergebnisse wie Oversampling.
Und ist SSAA nicht eher tendenziell ressourcenschonender?

Müsste man mal testen.
 
econaut schrieb:
Ab wann ist denn DSR besser als 4x Supersampling?

Für mich genau damm, wenn ich SGSSAA nicht über den Inspector erzwingen kann. Also DX11-Games, wie Crysis3. Bei Skyrim nutze ich 4xSGSSAA über den Inspector.
 
Downsampling ist ja im Endeffekt das gleiche wie Supersampling und DSR.
Die Unterschiede liegen in den Algorithmen.
Bei Downsampling interpoliert- wenn ich mich nicht täusche- der Monitor von einer hohen Auflösung ( in der auch das Spiel rendert) in die native Auflösung. Der höhere Berechnungsaufwand kommt hier nur davon, dass das Spiel intern in einer höheren Auflösung rendert. So, wie ein Monitor eine 640x480 Auflösung auf 1080p hochinterpoliert (einfach linear), so macht er das in die andere Richtung (einfach linear).

Bei SGSSAA wird ein spezieller Algorithmus von Nvidia benutzt (ist der bekannt?) und auch intern in höherer Auflösung gerendert.
DSR ist fast das gleiche, wie bei beiden anderen, nur dass zur runter-interpolation ein zusätzlicher gaussian Blurr (Gaussche Unschärfe) genutzt wird, was effektiver Kanten filtert, aber auch ab 25% deutlich unscharf wird.

Probiert doch selber mal aus: Desktop auf 4k einstellen und mit dem DSR-Filter spielen.
Bei 0% kann man fast nichts lesen, aber das Bild ist kantig (hochfrequente Störungen) und unruhig auch bei Text. Wenn man 25% einstellt, dann kann man sogar auf einem 1080p Monitor im Internet Browser die Schrift bei virtuellen 4k lesen.

Dass SGSSAA resourcenschonender sei, glaube ich nicht. Ich nutze nur noch DSR. Meistens 4k, wenn es geht und bei aktuellen Spielen 2715x1527 mit 25%. Das schafft meine Karte teilweise auch bei aktuellen Spielen.
Zu guter letzt ist das ja jedem selbst überlassen, weil es auch Geschmackssache ist. Manche filtern lieber mehr, auf Kosten der Schärfe, andere werden mit 8xMSAA glücklich, weil da weniger schärfeverlust ist.
Eine Sache, die man bei allen Supersampling nicht vergessen darf, ist dass durch die interne höhere Auflösung mehr hochaufgelöste Texel sichtbar sind, weil mehr Bildinhalt die höchte MIPMAP Stufe bekommt. Bei SSAA über den Inspector muss man das ja teilweise manuell anpassen (Bias).
 
Danke für eure Antworten.

Fakt scheint zu sein: DSR = Downsampling = Oversampling = Supersample-AA mit regelmäßigem/geordnetem Abtastmuster, besser bekannt als OGSSAA (Ordered Grid Supersample-AA) (Quelle: PCGH) und 3DCenter.

Ich bin mir sicher, dass die PCGH auch mal in einem AA Vergleich schrieb, dass Sparse Grid Supersamplling (SGSSAA) qualitativ besser sei als OGSSAA (auch wenn's kein großer Unterschied sein mag). Deswegen habe ich das lange auch im Inspector benutzt. Auch wenn es dort nur unter Antialiasing – Transparency Supersampling einzustellen ist, glättet es das ganze Bild (Quelle: 3DCenter). Das LOD Bias wird ja mittlerweile (seit ca. 2012?) automatisch angepasst, meine ich.

Echtes Supersampling ist soweit ich weiß besser als SGSSAA und OGSSAA, allerdings kostet es auch mehr Ressourcen, weil eben kein besonderer Algorithmus benutzt wird, der es effizienter rechnen lässt.

"Echtes" Supersampling gibt es im Inspector auch einzustellen, es sei denn es handelt sich dabei nur um OGSSAA. Das glaube ich aber nicht, dennoch macht es mich stutzig, dass man OGSSAA im Inspector nirgendwo einstellen kann. Muss man natürlich nicht, wenn man die alte Downsampling Methode oder nun DSR benutzt.

Von daher würde ich nun dabei bleiben, im Inspector 2x oder 4x Supersampling einzustellen, und nur, wenn dies nicht geht, DSR verwenden.

Es bleibt allerdings die Frage, welche Daseinberechtigung SGSSAA dann noch hat.

Seht ihr das genauso oder habe ich da irgendwo einen Denkfehler? Mal abgesehen davon, dass es evtl. komfortabler ist, DSR zu verwenden, weil man dann nicht den Umweg über den Inspector gehen muss.
 
Zuletzt bearbeitet:
Zurück
Oben