Kommentar Kommentar: Nvidia DLSS 5 ist technisch krass, vergeigt es grafisch nicht!

konean schrieb:
Diese Technik ist irgendwie out of scope für DLSS.
Jein, das eine ist das Deep Learning Super Sampling, das andere der Deep Learning Super Slop. Da muss einfach differenziert werden. Hat nichts miteinander zu tun. Stimme aber zu, dass es natürlich auf den ersten Blick etwas verwirrend ist.
 
  • Gefällt mir
Reaktionen: the_IT_Guy und MiroPoch
Ja, sorry, die Bilder schreien AI so laut, das einem die Ohren schmerzen!

Es gibt schon genug Videos darüber, die sich mit Ghosting und Artefakten etc. in diesen Beispiele beschäftigt haben - das ist der völlige Untergang irgendeiner vom Entwickler angestebten Bildqualität zugunsten generischer AI Filter mit bestenfalls geschmacklich kontroversem Resultat.

Um auf meinen Eingangssatz zurückzukommen:
Mir persönlich schmerzen die Ohren so sehr, das sie bluten - das ist nicht mein Geschmack und nicht meine Qualitätserwartung!

Das einzige Beispiel, wo AI eine gute Bildtransformation ergeben hat, war damals das Morrowindbeispiel!

Und das ist dann auch das Grundprinzip dieser PR-Stunts - man sucht sich ultrahässliche Spiele-Szenen und zeigt dann "aufgewertete" AI Szenen um überhaupt eine Daseinsbrechtigung herbeikonstruieren zu können!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: JarlBallin, the_IT_Guy und Schokolade
Matthias80 schrieb:
um keine Ausrede verlegen...
Nein. Was du machst ist ein schlechter Diskussionsstil. Im englischen nennt man das "moving the goalposts". Die ursprüngliche Aussage war folgende:
Eine Innovation wäre es, wenn die Grafik gleich bleibt, aber weniger Rechenleistung (durch KI-Auslagerung) benötigt.
Und ich habe gemeint, genau das macht das Upscaling. Und jetzt kommst du daher und redest was von Speicherauslastung.
 
longusnickus schrieb:
ich halte sehr wenig davon. AMD und INTEL werden das natürlich nachmachen und dann sieht dasselbe spiel immer anders aus.
Weil mit FrameGen vorgerenderte Bilder auf jedem PC anders aussehen...sind auch Ki generiert.
Wie kommt man auf die Idee?
 
konean schrieb:
Das ist ja etwas was ich nicht verstehe. Diese Technik ist irgendwie out of scope für DLSS.

Ja, wirklich dumm, die Leute bei Nvidia, dass sie eine weltweit in der Zielgruppe bekannte und positiv besetzte Abkürzung mit Markenstatus weiter benutzen, anstatt einfach random einen neuen Buchstabensalat zu kreieren.

konean schrieb:
Naja und das Ergebnis, hier wird viel zu sehr geändert vom Original und ich find es ehrlich gesagt ein Schritt in die falsche Richtung.

Ich finde es einen Schritt in die richtige Richtung!

Kennst Du die Sonaten von Domenico Scarlatti? Zu seiner Zeit gab es noch gar kein Fortpiano bzw. Klavier. Das Instrument der Wahl war das Cembalo oder das Clavichord. Das waren sicher tolle Instrumente, aber weil es Zupfinstrumente sind, kann man damit manche Dinge überhaupt machen, die ein Klavier ermöglicht, wie z. B. die Lautstärke eines Tons über den Anschlag bestimmen.

Für diese Instrumente hat er also seine zahlreichen und geistreichen Sonaten komponiert. Und das klingt dann - Original - z. B. wie in dieser Aufnahme. Ich mag trotzdem lieber Aufnahmen mit Klavier, auch und gerade, wenn dort die zusätzlichen Möglichkeiten des Instruments im Sinne der Komposition genutzt werden.
 
  • Gefällt mir
Reaktionen: xexex und Lazzarus
Brrr schrieb:
Ich konnte es nicht nachvollziehen warum der Thread geschlossen wurde. Habe meine Zeit verschwendet und jeden einzelnen Kommentar gelesen. Fand es noch einigermassen sachlich, die Leute haben halt hauptsächlich ihre Meinung ausgedrückt. Da waren ein paar wenige leichte Entgleisungen.
Nun ja, die Meinungen haben bei den üblichen Verdächtigen teilweise krasse Reaktionen hervorgerufen, bis am Ende die gesamte Community beleidigt wurde. Man schaue sich die Downvotes der Nvidia Demos sowie des Digital Foundry Videos an. 59k, muss wohl auch die böse CB Community sein. Und natürlich alles AMD User. Schon traurig was extreme Markenüberzeugung mit einem macht.
 
  • Gefällt mir
Reaktionen: aldaric, JarlBallin und Andre83hro
Wobei AMD natürlich auch noch an einem neural radiance caching arbeitet. Das letzte Feature von dem Projekt Redstone. Die aktuelle RDNA_4 Generation Besitzt ja schon dedizierte neurale Einheiten. Wobei keines derer, über Echtzeit Interpretationen verfügt. Wie das DLLS 5.0. NGREEDIA hat eben halt eine volle Generation im RT und PT Vorsprung. Möglichweise durch einen Treiberupdate bis Anfang 2027 realisiert. FSR_5.0 Oder integriert in der next Gen RDNA 5/ UDNA 2028

Die wichtigsten Features von AMD FSR Redstone nochmals aufgezählt:

=ML-gestütztes Frame Generation: Erzeugt Zwischenbilder mittels maschinellen Lernens, was zu weicheren Bewegungen, weniger Geisterbildern (Ghosting) und höherer Bildqualität im Vergleich zu FSR 3.1 führt.

=FSR Ray Regeneration (RR): Ein neuronales Netzwerk zur Bereinigung von Raytracing-Bildern. Es verbessert die Qualität von Reflexionen und Lichteffekten, indem es den Renderaufwand senkt (vergleichbar mit NVIDIAs Ray Reconstruction).

=FSR Super Resolution (ML-Upscaling): Weiterentwickeltes Upscaling, das von niedrigen Auflösungen aus detailliertere Bilder rekonstruiert.

=FSR Radiance Caching: Eine Technologie, die dynamisch lernt, wie sich Licht in einer Szene ausbreitet, um Echtzeit-Global Illumination (globale Beleuchtung) effizienter zu berechnen.
Treiberbasierte Aktivierung: Einige dieser Features können über den Grafikkartentreiber in unterstützten Spielen aktiviert werden.

Bisher muß ich meiner RTX GeForce 4080 S eine Bewertung von 2:1 geben. Im direkten Vergleich mit meiner RX 9070 XT geben. Beide arbeiten in identisch aufgebauten Systemen.

Die Erklärung lautet trotz 2. Driver Update, immer noch keine Verbesserung beim Spiel Cronos the New Dawn. Bei der Green Card läuft alles wie geschmiert. Aber bei der Red Card schmiert diese immer wider ab. Und lässt sich mit aktivierten FSR Super Sampling, gar mich mehr starten.

Als Notlösung muss ich mit meiner RTX diese Optionen auf der RX Karte wieder erstmal deaktivieren.
 
gartenriese schrieb:
Speicherauslastung
Ich rede von dem Initialen versprechen, immer und jedes Mal! Das auch schwächere Hardware davon profitiert. CB hat es oft aufgezeigt! Mit schwächerer Hardware geht gar nix von der Zauberei! Von einer 3000€ gpu erwarte ich genug Leistung! Da sollten keine Tricks nötig sein! Du bist wie viele andere einfach gehypt. Vergisst schnell... So ist das heute. Wenn du nicht für mich bist. Bist du automatisch gegen mich!
 
  • Gefällt mir
Reaktionen: Andre83hro
Syrato schrieb:
ist ein zweischneidiges Schwert, optische "Aufwertung" gegen Nostalgie.
Für mich gibt es da keine "Nostalgie". Ein Computerspiel unterliegt den Limitierungen aktueller Hardware und ist kein im Urzustand erhaltenswertes "Kunstwerk". Wenn es zukünftig möglich sein sollte die Grafik halbwegs auf dem aktuellen Stand zu halten, bekommen viel mehr Menschen einen Zugang zu Werken, die sie ohne dieses Feature niemals gesehen oder gespielt hätten.

Schade vielleicht für Spielstudios, die sich für mögliche Remakes mehr einfallen lassen müssen als nur ein paar Assets auszutauschen. Gut für Spieler, die auf ein viel breiteres Portfolio an Spielen zugreifen können, ohne sich gleich 20 Jahre in die Vergangenheit versetzt fühlen zu müssen.
 
  • Gefällt mir
Reaktionen: RMS_der_Zweite und ParrotHH
Wow, das DLSS 5 Bild sieht in jeder Hinsicht für mich deutlich besser aus als ohne, dafür brauche ich auch nicht unbedingt eine Brille um das zu erkennen.
Anscheinend ist den Leuten der RAM zu teuer und verteufeln deswegen pauschal alles was mit KI zu tun hat 🤷‍♂️
 
Puuh, für mich persönlich schwierig. Auf der einen Seite finde ich den Ansatz mit AI Bilder zu generieren und dadurch mehr Qualität raus zu holen, als mit klassischer Leistung möglich war gut. Es wurde ja schon angeteasert und war ein logischer Schritt. Und technisch gesehen frage ich mich auch, warum denn nicht, wenn die Spiele dadurch besser werden.

So, jetzt das ABER,... es gibt ein paar Punkte, die noch Fragezeichen aufwerfen. Der erste ist natürlich der billige AI Slop Look. Der fällt sofort auf und man fragt sich, wer in der Marketingabteilung auf Urlaub war. Das ist natürlich ein denkbar ungünstiger Einstieg, weil gelinde gesagt einfach nur AI Slop Vibes aufkommen. Die Videos sind fürchterlich. Gut, das ändert am Ende am Konzept und der Technik erstmal nichts und wird das wohl auch kaum in Frage stellen. Ein weiterer Punkt ist die Kritik, das hier wieder Rechenleistung verpulvert wird. Klar bekommt man das mit klassischem Rendering nicht hin. Nur wenn man 2 RTX 5090 braucht oder ähnlich, dann ist der Mehrgewinn teuer erkauft. Dieser Kritik steht ja auch RT/PT gegenüber. Der Trade-off ist zu früh und zu erzwungen. Für uns Gamer ergibt das noch nicht wirklich Sinn vor dem Hintergrund des Ressourceneinsatzes. Wir benötigen mehr Rechenpower und aktuell ist das Silikon noch zu teuer. Als letztes Frage ich mich über die Relevanz einer solchen Entwicklung. Die halte ich tatsächlich für wesentlich geringer als man denken würde. Kritisch eher, wenn dadurch die Qualität der Spiele weiter abnehmen würde.
Ergänzung ()

wtfNow schrieb:
Wow, das DLSS 5 Bild sieht in jeder Hinsicht für mich deutlich besser aus als ohne, dafür brauche ich auch nicht unbedingt eine Brille um das zu erkennen.
Anscheinend ist den Leuten der RAM zu teuer und verteufeln deswegen pauschal alles was mit KI zu tun hat 🤷‍♂️
Ich denke eher, das man das schon tausendmal gesehen hat in der AI Welle. Das kann tatsächlich nerven, gerade, wenn man ein Spiel zur Entspannung spielt. Tatsächlich glaube ich nichts, dass es so kommen wird. Es wird geschickter und zielgerichteter eingesetzt.
 
Kaufmannsladen schrieb:
Es ging doch nie um Künstlichkeit, sondern um künstlerische Selbstbestimmung und inhaltliche Kohärenz.
Die künstlerische Selbstbestimmung wird aktuell von der vorherrschenden technischen Machbarkeit bestimmt oder anders ausgedrückt von der Engine limitiert. Wir sprechen ja nicht von einem Retro-Game
 
  • Gefällt mir
Reaktionen: xexex
Linmoum schrieb:
Zumal die Entwickler auch noch selbst die Handhabe haben (werden) und entscheiden, wie stark sie es nutzen wollen.
Wenn es ihre Arbeit vereinfacht, werden sie aus voll auskosten irgendwann.
Publisher wie EA wollen dann nicht groß die Leute bezahlen, die ihre Zeit daran "verschwenden", wenn man einfach einen Haken setzen kann.
Dann werden die originalen Modelle noch schlechter aussehen, und DLSS5 wird dagegen umso besser wirken -> Noch mehr verkäufe für Nvidia. Leute die nicht diese Technik nutzen können, haben dann verkackt.

Heutzutage ist es ja schon eine Schlagzeile, wenn ein AAA Game Nativ auf 4k gerendert werden kann, siehe Crimson Desert LUL
 
ParrotHH schrieb:
Ich finde es einen Schritt in die richtige Richtung!

Kennst Du die Sonaten von Domenico Scarlatti? Zu seiner Zeit gab es noch gar kein Fortpiano bzw. Klavier. Das Instrument der Wahl war das Cembalo oder das Clavichord. Das waren sicher tolle Instrumente, aber weil es Zupfinstrumente sind, kann man damit manche Dinge überhaupt machen, die ein Klavier ermöglicht, wie z. B. die Lautstärke eines Tons über den Anschlag bestimmen.

Für diese Instrumente hat er also seine zahlreichen und geistreichen Sonaten komponiert. Und das klingt dann - Original - z. B. wie in dieser Aufnahme. Ich mag trotzdem lieber Aufnahmen mit Klavier, auch und gerade, wenn dort die zusätzlichen Möglichkeiten des Instruments im Sinne der Komposition genutzt werden.
Ich bin ja nicht komplett gegen KI und sehe es auch als ein Werkzeug um Kunst zu erstellen. Ich kam sogar damit zuletzt in Berührung als ich mich über ComfyUI schlau gemacht habe. Da gab es ein paar richtig coole Ergebnisse für abstrakte Kunst durch gekonnte Manipulation von Promts und zusätzlichen LoRas.

Nur in diesem Fall ist die Verschmelzung von einer Lösung für Reduzierung von Kantenflimmern und ich nenne es mal "Reshade/ Filter etc" zu krass und das ist auch unabhängig vom Ergebnis. Wenn es eigenständig ist kein Problem. Mehr Optionen sind gut. Wenn wir aber als Endlösung später DLSS5 haben welches immer das Bild so stark verändert vom original Ersteller, ist das keine gute Entwicklung.
 
zeedy schrieb:
Wieso heißt es überhaupt noch DLSS? Was hat das mit Super Sampling zu tun? DLR, Deep Learning Reshading wäre doch passender.
Ist halt mittlerweile ein Überbegriff geworden, genau wie FSR auch, da steckt auch Frame Generation drin sowie Ray Regeneration, die beide nichts mit "Super Resolution" zu tun haben.

Wird dann am Ende vmtl DLSS NR heißen
 
Zuletzt bearbeitet:
xexex schrieb:
Da bist du aber sehr unbelesen! Es gibt halt nicht nur Grafikbomben die halt noch besser aussehen können, es gibt auch Spiele (als Kunstwerke mittlerweile verstanden !) die wegen ihres Spielprizips ect. nicht unbedingt wegen ihrer tollen Grafik als solche gesehen werden! Open your Mind! Da geht's absolut um den Urzustand!
 
  • Gefällt mir
Reaktionen: JarlBallin
Heftig wieviele sich auch angegriffen fühlen sobald man eine andere Meinung hat. Da passt das hier ganz gut. :D

1773761792519.jpeg
 
  • Gefällt mir
Reaktionen: aldaric, JarlBallin, zeedy und 4 andere
Ja, ich kenn das. Als sie die ersten Texturen über meine fein goraud-schattierten 3D Modelle gelegt haben hab ich mir auch gedacht "ist ja abgrundtief hässlich". Nein ich fange jetzt nicht mit dem für und wieder das Ausfüllens von Vektorgrafik an... wo war ich...

Achso, ja LEISTUNG. Es geht um Leistung. Jetzt das ästhetische mal außen vor, da scheiden sich eh die Geister. Klar kann man ein Spiel auf ein höheres Detailniveau modden und erzielt ein gleichbleibendes Resultat das keine Probleme mit der Beleuchtungsinterpretation hat, aber das kostet Ressourcen.

Es geht ja darum Ressourcen zu sparen. Ja wenn ich noch ein paar Terrabyte hochauflösende Texturen in hyper-Auflösung... wie damals in Skyrim.

Der Punkt ist das DAS hier all den den Tand nicht braucht. Man braucht keine irre aufgelöste Wandtextur nur weil ein Schnösel auf Nasenläge dranlaufen könnte um dann "VERPIXELT!" zu rufen. 2x 5090 sind natürlich eine Hausnummer, mal kurz 64 GB VRam aber das scheint mir doch der alte Voodoo Bilddurschlauf Ansatz zu sein um nachzubearbeiten.

Die Frage ist letztendlich wie klein Nvidia das falten kann und ob wie sehr die Schwachstellen unter Kontrolle gebracht werden können. Weil ultradetaillierte bis in die Poren abzubilden nicht so viel Sinn macht wie es eine KI nachbearbeiten zu lassen SOLANGE die Ki weniger Ressourcen braucht um das abzuziehen.
 
Zurück
Oben