Bericht Leser-Blindtest 2026: Die Community sieht DLSS 4.5 klar vor FSR und Nativ + TAA

blackiwid schrieb:
Ja aber wenn nur 50% es erkennen können / besser finden heißt das der Unterschied klein ist, dafür schlechtere Preis/FPS lohnt sich nich
Verstehe ich nicht warum man das als einzigstes Argument benutzt für Preis Leistung ? Gibt ja auch noch andere Argumente für ne NV Karte. Verbreitung, lange Unterstützung Stromverbrauch, Treiber. Den Hick Hack mit der AMD 6000/7000 Generation. 6000 Gen. wird Treibermäßig kaltgestellt. 7000 Gen. bekommt kein FSR 4.
 
  • Gefällt mir
Reaktionen: stevefrogs, Quidproquo77, jdiv und 3 andere
12nebur27 schrieb:
Alte Spiele sehen ohne AA auch deutlich weniger schlimm aus als moderne.
Weil die modernen Spiele so programmiert sind, dass sie TAA oder sonstige temporale Verfahren benötigen. Früher hat man diesen Mist nicht gemacht.
 
  • Gefällt mir
Reaktionen: Bregor
adfsrg schrieb:
Die Bilder werden generiert. Das ist übrigens nicht nur meine Meinung sondern Fakt. Lies es doch direkt bei Nvidia nach.
Aha. Na, wenn Du meinst. Ist zwar komplett falsch und NVidia schreibt das so auch nirgendwo. Aber glaub doch meinetwegen, was Du willst.

Ich finde es aber toll, dass es NVidia (und AMD) schafft, 100 und mehr Bilder pro Sekunde auf einer kleinen GPU mit 8GB und weniger zu generieren. Das ist echt stark. Da sollten sich die großen Rechenzentren von OpenAI & Co. mal ein Scheibchen abschneiden.
 
adfsrg schrieb:
Weil die modernen Spiele so programmiert sind, dass sie TAA oder sonstige temporale Verfahren benötigen. Früher hat man diesen Mist nicht gemacht.
Ja wenn du Grafik wie früher haben willst kannst wieder MSAA haben, ich brauch das nicht lol

@ComputerBase
Als nächstes bitte einen Grundlagenartikel zu AntiAliasing Varianten und warum es heute manche nicht mehr gibt. Diese Diskussionen hier machen mich schon wieder ganz wirr
 
  • Gefällt mir
Reaktionen: serve1chilled, BeowulfAgate, Laphonso und 4 andere
@adfsrg Früher hättest du auch gar nicht die Möglichkeit gehabt. Früher konntest du Objekte gar nicht so Detailliert modellieren wie es heute getan wird. Entwickler wollten aber Modelle detaillierter haben und die Kundschaft war offensichtlich dem auch nicht abgeneigt. Mit der PS3 hatten wir dann wirklich viele aliasing Probleme die gelöst werden mussten. Mit der PS4 wurde das ganze dann noch schlimmer und TAA hat sich als Antwort herauskristalisiert weil keine andere so gut in AA war ohne unglaubliche Ressourcen zu binden.

Klar können wir Weg von TAA. Wenn wir dafür bereit sind, sehr vieles was wir mit moderner Spielegrafik verbinden wegzuschmeißen. Ich wage aber mal die Behauptung, dass recht viele Spieler davon entäuscht wären. Cyberpunk würde definitiv nicht so aussehen wie es aussieht und so atmosphärisch sein wie es ist, wenn es wie das ursprüngliche Deus Ex (was ürbrigens auch ein super Spiel ist) aussähe.
Und ich wäre auch nicht glücklich wenn wir bei den Aufbauspielen wieder zu Anno 1602 Grafik zurückgingen.
 
  • Gefällt mir
Reaktionen: Bloodwalker und Grestorn
Grestorn schrieb:
Aha. Na, wenn Du meinst. Ist zwar komplett falsch und NVidia schreibt das so auch nirgendwo. Aber glaub doch meinetwegen, was Du willst.

Ich finde es aber toll, dass es NVidia (und AMD) schafft, 100 und mehr Bilder pro Sekunde auf einer kleinen GPU mit 8GB und weniger zu generieren. Das ist echt stark. Da sollten sich die großen Rechenzentren von OpenAI & Co. mal ein Scheibchen abschneiden.
Ist ein hochoptimiertes Modell was nur das kann und bekommt zusätzlich noch Bewegungsvectoren, Tiefenpuffer usw, nicht vergleichbar zu normalen Bildgeneratoren
 
  • Gefällt mir
Reaktionen: Laphonso und 12nebur27
@TheInvisible Dass da eine Art von neuronalem Modell läuft, bestreite ich auch nicht. Aber es wird nichts generiert; das würde viel zu lange dauern. Bestenfalls werden Details restauriert bzw. interpoliert, und zwar nur an Stellen, wo aufgrund der Bewegung noch keine ausreichenden Details durch die gerenderten Frames vorliegen. Das ist etwas ganz anderes.
 
  • Gefällt mir
Reaktionen: Bloodwalker
TheInvisible schrieb:
bitte einen Grundlagenartikel zu AntiAliasing Varianten und warum es heute manche nicht mehr gibt.

Dem kann ich mich nur anschließen. Auch den Unterschied was Upscaling, Frame Gen und Ray Reconstruction sind und was sie machen und welche vor und Nachteile die einzelnen Techniken haben. Nicht nur hier aber erschreckend oft für ein Technik Forum werden hier Sachen von sich gegeben die wirklich gruselig sind. Viele Packen DLSS oder FSR in eine Schublade, kennen den Stand von Anno dazumal als DLSS erschien (und noch nicht auf dem Niveau war auf dem es heute ist) und denken halt noch es wäre 2001.

Ich bin wirklich immer und immer wieder Sprachlos wie in einem Technikforum so viel Unwissen und technikfeindseligkeit herrschen kann. Im Reddit auf r/zocken kann ich es ja noch halbwegs aushalten weil da wirklich jeder Techniklegastheniker was zu sagen hat, aber hier?
 
  • Gefällt mir
Reaktionen: Grestorn
Grestorn schrieb:
@TheInvisible Dass da eine Art von neuronalem Modell läuft, bestreite ich auch nicht. Aber es wird nichts generiert; das würde viel zu lange dauern. Bestenfalls werden Details restauriert bzw. interpoliert, und zwar nur an Stellen, wo aufgrund der Bewegung noch keine ausreichenden Details durch die gerenderten Frames vorliegen. Das ist etwas ganz anderes.
Eine Interpolation ist immer eine Generierung von Daten die vorher nicht da waren. Alle Upscaling Algos füllen Lücken in irgendeiner Art und Weise.
 
Grestorn schrieb:
Aha. Na, wenn Du meinst. Ist zwar komplett falsch und NVidia schreibt das so auch nirgendwo. Aber glaub doch meinetwegen, was Du willst.
Nochmal, das ist nicht meine Meinung, das ist Fakt. Nvidia schreibt das auch sehr oft. Z.B hier:
Nvidia schrieb:

DLSS Super Resolution​

Steigert die Leistung, indem durch die Verwendung von KI Frames mit höherer Auflösung aus einer Eingabe mit niedrigerer Auflösung ausgegeben werden. DLSS nimmt mehrere Bilder mit geringerer Auflösung auf und verwendet Bewegungsdaten und Rückmeldungen aus früheren Bildern, um Bilder in hoher Qualität zu erstellen. Ein neues Transformer-KI-Modell der zweiten Generation verbessert die Stabilität, die Kantenglättung und die visuelle Klarheit weiter.
Quelle: https://www.nvidia.com/de-de/geforce/technologies/dlss/

Du verstehst, das "erstellen" synonym zu "generieren" ist, oder? Vgl. lat. generare =
Ergänzung ()

12nebur27 schrieb:
Wenn wir dafür bereit sind, sehr vieles was wir mit moderner Spielegrafik verbinden wegzuschmeißen.
Genau darum geht es doch: Die Bildfehler durch temporale Verfahren sollte man wegschmeißen und stattdessen lieber echte Transparenz implementieren. Du hättest dann ein paar fps weniger aber das Bild wäre im Allgemeinen deutlich besser.
Das Problem ist halt, dass so viele Leute mit minderwertiger Hardware spielen. Schau dir doch mal allein an wie viele Leute nur ne PS5 oder Xbox habe und selbst am PC hat nicht jeder High End Hardware.
 
  • Gefällt mir
Reaktionen: Iscaran
TheInvisible schrieb:
Als nächstes bitte einen Grundlagenartikel zu AntiAliasing Varianten und warum es heute manche nicht mehr gibt. Diese Diskussionen hier machen mich schon wieder ganz wirr
Ich fürchte, abgesehen von harten Fakten wie Schwierigkeiten mit AA methoden weil sie mit Deferred Rendering probleme haben wird das wenig bringen. Und selbst da werden dann die Kommentare kommen wie "Mimimi ich wollte sowieso immer nur Forward Rendering", und dann kommt der nächste mit Clustered Forward.
Und einen Artikel der wirklich einen Rundumschlag macht aber trotzdem alles tief genug beleuchtet wird eh fast niemand Lesen, weil der ewig lang wird.
 
  • Gefällt mir
Reaktionen: Fika und Bccc1
🍿 Ihr wollt exakt die gleiche Diskussion nochmal? Gern, exaxt die gleiche Diskussion nochmal🤣
 
  • Gefällt mir
Reaktionen: mazO!, angHell, Rawday und 3 andere
adfsrg schrieb:
Nochmal, das ist nicht meine Meinung, das ist Fakt. Nvidia schreibt das auch sehr oft. Z.B hier:

Quelle: https://www.nvidia.com/de-de/geforce/technologies/dlss/

Du verstehst, das "erstellen" synonym zu "generieren" ist, oder? Vgl. lat. generare =
Ich verstehe wesentlich mehr, als Du meinst :)

Da steht z.B. "durch die Verwendung von KI Frames" (was auch immer das sein soll), "[...}nimmt DLSS mehrere Bilder mit geringerer Auflösung[...] um Bilder in hoher Qualität zu erstellen".

Da steht nichts davon, dass die KI Bilder erstellt. DLSS erstellt die Bilder auf der Basis der vorher temporal gerenderten Daten.

Letztlich genau das, was ich immer wieder beschreibe. Temporales SuperSampling.

So viel zu Deinen "Fakten".
 
Grestorn schrieb:
@TheInvisible Dass da eine Art von neuronalem Modell läuft, bestreite ich auch nicht. Aber es wird nichts generiert; das würde viel zu lange dauern. Bestenfalls werden Details restauriert bzw. interpoliert, und zwar nur an Stellen, wo aufgrund der Bewegung noch keine ausreichenden Details durch die gerenderten Frames vorliegen. Das ist etwas ganz anderes.
DLSS1 war wirklich noch dumm aber ab DLSS2 läuft es wirklich über ein neuronales Netzwerk, die Generierungszeiten liegen im niedrigen ms Bereich, siehe auch: https://github.com/NVIDIA/DLSS/blob/main/doc/DLSS_Programming_Guide_Release.pdf
 
  • Gefällt mir
Reaktionen: adfsrg
Grestorn schrieb:
Nun, bei DLSS ist das Wörtchen "KI" mehr ein Marketing-Gag. Es hat nichts mit den AIs zu tun, mit denen wir heute so umgeben sind. Es wird eben nichts generiert
Da ist viel Meinung, aber wenig Ahnung, Sorry.

Es handelt sich um künstliche neuronale Netze, welche auch bei generativer AI bspw. ChatGPT zum Einsatz kommen. Bei DLSS werden die besten Pixel für das Upsampling Bild vorhergesagt und bei ChatGPT Text Silben.
Übrigens, mit DLSS 4 kam sogar das Transformer Modell als Architektur Konzept für das Neuronale Netz zum Einsatz, welches für ChatGPT von OpenAI entwickelt wurde.
 
  • Gefällt mir
Reaktionen: Andre83hro, Snapuman und adfsrg
Das Ergebnis liegt im Erwartbaren. DLSS hat am meisten Stimmen als einzelne Option geholt. Dass Upsampling entsprechend "angekommen" ist, dürfte nun eindeutig sein, da in Kombination 75% der Leser Upsampling gleich oder besser als Nativ bewerten. Das ist schon ziemlich eindeutig.

Ich finde die Wortwahl im Artikel aber überzogen. Von "Dominanz" zu reden, wenn eine Technologie noch nicht mal 50% der Leute im Schnitt überzeugen konnte finde ich fragwürdig. Dass Upscaling "dominiert" könnte man mit 75% noch halbwegs akzeptieren (imho müsste aber für Dominanz >80% sein), aber bei noch nicht mal der Hälfte der Stimmen davon zu reden - ich weiss ja nicht.

Natürlich gewann DLSS jeden einzelnen Test mit den meisten Stimmen, trotzdem haben mehr als die Hälfte nicht für DLSS gestimmt - entsprechend kann DLSS gar nicht so haushoch überlegen sein. Unbestritten ist, dass DLSS definitiv technisch und optisch weiter ist als FSR oder gar TAA, aber nicht in dem Ausmass, was dieser Text suggeriert.
 
  • Gefällt mir
Reaktionen: angHell, Brrr, Fika und 2 andere
Grestorn schrieb:
Ich verstehe wesentlich mehr, als Du meinst
Bisher zeigst du davon nicht viel.
Grestorn schrieb:
Da steht nichts davon, dass die KI Bilder erstellt.
Doch
Grestorn schrieb:
DLSS erstellt die Bilder auf der Basis der vorher temporal gerenderten Daten.
Was sollen "temporal gerenderten Daten" sein? lol
Grestorn schrieb:
So viel zu Deinen "Fakten".
Nachdem ich jetzt alles gelesen habe, bin ich mir sicher, du verstehst sogar noch weniger, als ich meinte.
 
  • Gefällt mir
Reaktionen: Iscaran und Andre83hro
coral81 schrieb:
Verstehe ich nicht warum man das als einzigstes Argument benutzt für Preis Leistung ? Gibt ja auch noch andere Argumente für ne NV Karte. Verbreitung, lange Unterstützung Stromverbrauch, Treiber. Den Hick Hack mit der AMD 6000/7000 Generation. 6000 Gen. wird Treibermäßig kaltgestellt. 7000 Gen. bekommt kein FSR 4.
Das steht noch nicht fest Valve wirbt mit verbessertem Upscaling bei der Steam Machine und die PS5 Pro mit RDNA4 (4.5) bekommt dieses Jahr auch noch "full FSR 4 integration".

Natürlich ist es enttäuschend das man so lange warten muss, aber eigentlich nur weil AMD das mal in den Raum gestellt hat, ansonsten hat jeder ne RDNA2/3 incl. mir gekauft mit dem Wissen um schlechteres Upscaling und schlechteres Raytracing, da der Linux Support generell hinten dran hängt, will ich lieber Rohleistung denn auch Nvidia liefert ja nicht ihre Features brauchbar unter Linux mit vollem Speed, von freiem problemlosen Treiber ganz ab gesehen.

Also ich wusste was der Kompromiss war und hab mich bewusst gegen ne neue rx 9060 16gb entschieden weil ich FSR4 eh kaum nutzen kann, sowohl wegen OS aber auch viele Spiele es ja nicht mal drin haben erst mal.

Wie auch immer die Leute haben die Karte gekauft mit dem schlechteren Upscaling aber Backwardskompatibilität ist ja jetzt auch nicht so das riesen Thema, z.B. wenn ich jetzt kaufen will, deshalb war die 6000 Gen stark rabattiert und die 7000er Gen ist gefloppt lohnt sich der Aufpreis zu ner 7000 Gen karte kommt drauf an man wird sie ja gebraucht kaufen... mal ja mal nein, aber ich würde mich jetzt schon auf die neueste Gen konzentrieren die wo Leute in Läden kaufen wenn sie heute was kaufen.

Dafür waren die alten Nvidia Karten Speicherkrüppel oft, aber versteh jetzt nicht den Fokkus auf die alten Karten.

Ich mein AMD schenkt die ja fast 32gb zu der Grafikkarte Systemspeicher dazu 300 Euro :) wie hier die Leute über Rampreise jammern aber AMD blecht mal schnell 80-90% des Preises an Einsparung mit...
 
Zuletzt bearbeitet:
TheInvisible schrieb:
DLSS1 war wirklich noch dumm aber ab DLSS2 läuft es wirklich über ein neuronales Netzwerk, die Generierungszeiten liegen im niedrigen ms Bereich, siehe auch: https://github.com/NVIDIA/DLSS/blob/main/doc/DLSS_Programming_Guide_Release.pdf
WAS genau wird denn generiert? Du erwartest nicht, dass ich das ganze Dokument lese. Da Du Dir so sicher bist, wirst Du mich sicher auf den exakten Punkt verweisen können.

Wenn jemand schreibt, "das Bild ist KI-generiert", dann assoziiert man damit etwas. Und man sollte schon ganz klar DLSS und FSR von dem trennen, was im Netz mit AI-Slop assoziiert wird.

Nicht alles, was neuronale Netze nutzt, ist ein Bildgenerator wie Stable Diffusion & Co. Aber genau diese Assoziation hat doch ein @adfsrg im Kopf.
 
Zurück
Oben