Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsAI-Slop-Kritik an DLSS 5: Jensen Huang: „Spieler liegen mit ihrer Kritik völlig falsch“
Es gibt hier schon viele Möglichkeiten, die kommen können. Das aktuelle Problem ist halt, dass die Spiele jetzt sehr ähnlich erst mal aussehen und es aktuell zu "Smooth" ist. Nur, es ist jetzt erst mal eine Preview.
wenn die Entwickler Zugriff auf die Parameter haben,
könnte ja auch der Fall eintreten, dass - um sich von anderen zu unterscheiden, einen eignen Look zu haben - sich Spiele schlussendlich optisch mehr unterscheiden werden
Naja, bei beiden wird ein "Workaround" benutzt, bei Pathtracing ist die Anzahl der Strahlen deutlich reduziert, damit es in Echtzeit klappt und um das auszugleichen hat man den Denoiser.
Bei den Texturen, die dann auf das Licht reagieren müssen werden nun eben Methoden entwickelt, wie diese besser und mit weniger Aufwand erstellt werden können.
Ergänzung ()
Was genau an den Erklärungen hast du nicht verstanden, dass du sie als "Blabla" abtust?
Ich hatte nach der ersten News dazu hier, als im Artikel schon einige Erklärungen von Nvidia drin standen, den Eindruck, dass fast niemand diese auch gelesen sondern einfach drauf los geschrieben hat, was für ein Mist das ist weil dadurch ja dies und das passiert, was wenn man die Erklärungen gelesen hätte, schon entkräftet worden wäre.
Jetzt werden dieselben Erklärungen nochmal gemacht und etwas detaillierter beschrieben, und wieder möchte man es anschscheinend nicht lesen, sondern hatet einfach weiter.
Sieht man ja schon an den ersten Kommentaren im Thread und den Likes die sie bekommen. Es ist völlig egal was Jensen sagt, er hätt euch hier ne komplette wissenschaftliche Abhandlung über 30 Seiten präsentieren können, die gneau beschreibt wie DLSS5 arbeitet, es hätte trotzdem immer die gleichen Reaktionen geben.
Wie soll man da auch anders drauf reagieren, wenn die Leute mit diesen Meinungen was DLSS5 macht eben wirklich komplett falsch liegen?
Es gibt ja auch heute noch genug Leute die behaupten, bei DLSS SR sieht ne KI einen Zaun und rekonstruiert ihn dann in einr bestimmten Art und Weise weil ihr beigebracht wurde wie ein Zaun idR aussehen muss und daher ist es nicht genau der Zaun wie ihn die Entwickler designed haben.
Da kann man auch nichs weiter sagen als "sie liegen komplett falsch" und es immer wieder erklären. Aber auch da merkt man, dass viele es einfach nicht verstehen wollen.
Auf der einen Seite, hast du die Bilder/Videos, da kann jeder wunderbar sehen, was DLSS 5 macht. Auf der anderen Seite Jensens Aussage. Was soll „Wir bringen die Technologie hervor, wir kreieren aber nicht die Kunst“ anderes sein als Blabla?
Danach geht er ein bisschen mehr Detail, und steigt immerhin von Blabla zu Technik-Blabla auf: "generative Kontrolle auf dem Geometrielevel".
Und ganz am Rande: braucht ein Jensen, braucht ein Megakonzern wie Nvidia wirklich weiße Ritter, die sie vor den bösen Kommentaren im Internet beschützen? Reicht doch, dass am Schluss trotzdem "alle" bei Nvidia kaufen.
Weil raytracing kann ich auch nicht in jedem neuen Titel ausschalten, oder gewisse andere Technologien werden bei der Entwicklung quasi vorausgesetzt, dass der Nutzer es enabled um Entwicklungs- bzw Optimierungskosten zu sparen - lieber automatisch hoch skalieren lassen und raus damit - Zeit ist Geld !
Wenn ein Spiel stattdessen eine andere Methode zur Beleuchtung nutzt, kannst du die auch nicht "ausschalten" und musst dich mit dessen Vor-/Nachteilen arrangieren. Alles was Spiele vom ihrem Framework her technisch mitbringen ist immer das womit du klarkommen musst. Das war früher btw. noch viel schlimmer mit Shader-Versionen, die Voraussetzung waren, APIs waren schneller veraltet. Heute kann ne 10 Jahre alte Grafikkarte noch fast alle neuen Titel starten.
Bzgl. dem Sparen von Entwicklungskosten. Die Lichtquellen müssen ja weiterhin manuell gesetzt werden und das meiste an der Beleuchtung hat davor oft einfach die Engine übernommen in der das Spiel entwickelt wurde. Wie diese mit der Lichtquelle umgeht, ist eher Entwicklung der Beleuchtungsengine und weniger eine Frage der Spieleentwicklung und die Zeit wo Entwickler ihre eigene Engine schreiben, war schon vor Ray-Tracing größtenteils vorbei.
Sollte etwas Zeit und Kosten sparen, was ist dein Problem damit? Die Ressourcen können dann entweder in andere Bereiche eines Spiels gesteckt werden, bzw. kleinere Studios können größere Spiele bauen. Der Konsument gewinnt da eigentlich immer. Deine Sorgen um gierige Publisher, die "weniger Aufwand = mehr Geld" sehen, kann sich doch spätestens seit der Pferderüstung, jährlichen CoD-Releases und Sport-Kasinos nicht mehr um technische Arbeitserleichterung als Problem drehen.
Merit schrieb:
Schaut man in die Vergangenheit (tesselation) was grad nvidia da auch alles gemacht hat um AMD künstlich auszubremsen OHNE dem Kunden wirkliche Mehrleistung zu geben .
AMD-Karten waren die ersten die Tesselation konnten - lange vor nVidia. Die hatten auch die erste DX11-Karte. nVidia hatte dafür PhysX. Außerdem war Tesselation nen ziemlicher Gamechanger und hat optisch einen enormen Unterschied gemacht. Konnte damals jeder im Heaven benchmark von UNIGINE bestaunen, der lange nach der ersten Tesselation-GPU erst rauskam. Das war ja eben das Traurige, dass es davor nicht wirklich Spiele gab, die AMDs TruForm genutzt haben und Tesselation erst mit DX11 so richtig Fahrt aufnahm.
Die Ankündigung von DLSS 5 zu Beginn von Nvidias GTC-2026-Keynote kam überraschend. Und sie ging – vielleicht überraschend für Nvidia – mit einiger Kritik einher. Diese reichte von einer Gefahr für klassisches Artwork bis zum Vorwurf „billigen AI Slop“. Doch laut Nvidia-CEO Jensen Huang liegen die Kritiker damit völlig falsch.
Also den Videos nach zu urteilen sehen Menschen in Spielen dann nach AI-Slop bzw. Insta-/TikTok-gefilterten Fake-Fotos aus.
Ganz großartige Leistung Nvidia.... nicht.
Man kann sehen wie es aussieht, das zeigt nicht was DLSS5 genau macht.
Hier behaupten aber sehr viele User wie es funktioniert und das ist halt alles falsch
Ähhh nein.
Ich spreche hier nicht von chatgpt und Midjourney.
Sondern von ComfyUI mit Inpainting und Image2Image mit Safetynet für Posen/Depth und mit Lora für spezifischen Artstyle.
AMD steckt leider noch immer fest, einen ordentlichen Windows Treiber zu programmieren. Aber naja, AMD setzt ja auf Linux und die meisten AMD Jünger / Pilger folgen schon den Weg.
Schön zu beobachten das AMD Besitzer nur bashen können. Ob gegen Nvidia oder gegen Windows.
Nach über einem Jahr nVidia Blackscreenwell Launchdesaster und einem Schrotttreiber nach dem anderen kann ich über sowas nur noch lachen. Die 6800XT und 7900XTX Treiber haben nie annähernd so viel Probleme gemacht wie die für die RTX 5080.
Welche schlechten Dinge? Mir fallen fast nur positive ein. Am meisten freut mich, dass weinerliche "Künstler" ihre Jobs verlieren und beweisen, dass es ihnen nie um Kunst, sondern nur um Geld ging. Aber soviel Mitleid mit durch technologischen Fortschritt verlorenen Jobs hatten Menschen noch nie, man fragt sich wieso. Der arme Kutscher, der durchs Auto seinen Job verlor, hat kein Mitleid bekommen. Selbst heute Truck-Fahrer erhielten nie Mitleid, wenn es um selbstfahrende Trucks ging. Aber bei fancy Künstlern, die einen der angenehmsten, erfüllendsten Job haben, DA kommen dann Hirnzellenakrobaten an und meinen "DIE MUSS ICH VERTEIDIGEN!!11". Make it make sense. Kein Künstler verliert seine Kunst, nur weil er den Job verliert.
Habe mittlerweile nur noch Hass auf "Künstler" wegen all der dummen Hassmobs. KI verteufeln wo geht, nur weil sie nichts verstehen. Und dann dieses ständige "stehlen". KI ist effizienter, sonst nichts. Jeder Künstler hat von früheren Künstlern "gestohlen", nur nennt man es bei Menschen "Inspiration", weil man nicht ins Gehirn schauen kann, anders als bei KI.
Und wenn jetzt Spinner behaupten, dass Grace aus RE9 mit DLSS5 schlechter aussähe, obwohl sie einfach REAL aussieht, wie eine echte Frau (und ohne "beautifying", ohne zusätzliches Makeup; das ist einfach nicht wahr), dann wird mir wirklich schlecht, weil das das Niveau von Trump ist. Alternative Realität und dreistes Lügen. Man behauptet einfach Dinge, egal wie offensichtlich unwahr sie sind, hauptsache man DRÜCKT die eigene Agenda damit durch. Ich kann diese Scheiße nicht mehr sehen. Und jetzt kündigt Alex von DigitalFoundry auf der Faschisten-Website Resetera.com an, dass er seinen Kollegten in den Rücken fallen wird. Der irrationale Hassmob hat wieder mal gewonnen. Kotz.
Das ist aber sowieso ein Fass ohne Boden: Der eine macht Artworks, der andere setzt es in ein digitales Asset um, dann schaut der Manager drüber und gibt seinen Senf dazu. Die 'Reinheit' der kreativen Vision ist bei Riesen Projekten doch ein Mythos oder eine romantische Vorstellung. Wir reden hier nicht vom Meisterkünstler und seiner Leinwand. 😁
Ähhh nein.
Ich spreche hier nicht von chatgpt und Midjourney.
Sondern von ComfyUI mit Inpainting und Image2Image mit Safetynet für Posen/Depth und mit Lora für spezifischen Artstyle.
Ich verwende ComfyUI. Man kann damit erstellen, was man will. Die Herangehensweise ist anders als traditionelle Kunst mittels bspw. Photoshop, aber deine Behauptung, KI-Kunst wäre ein "Hände in die Luft werfen und abwarten was passiert", ist komplett falsch.
Ich sehe das etwas differenzierter: In der jetzigen Präsentation wurden 2x0590 benutzt, eine Ausschließlich für DLSS. Wir können also davon ausgehen, dass das Ganze recht ressourcenhungrig sein wird.
Warten wir es ab. Seit fast 40 Jahren entwickele ich selbst Software. Ein guter Ansatz für komplexe Probleme ist es, sie im ersten Schritt überhaupt erst mal konzeptionell sauber zu lösen. Gut gemacht, kommt dann dabei in der ersten Iteration etwas heraus, dass zumindest funktioniert, aber dafür langsam ist. Erst dann optimiert man es in Hinblick auf die benötigten Ressourcen.
Weil: etwas, das generell gut funktioniert, bekommt man immer irgendwie schneller.
Aber etwas Schnelles, das konzeptionell schlecht funktioniert, bekommt man eigentlich nie repariert!
So sehe ich das auch hier: erst mal ein funktionierendes Konzept auf die Beine stellen, und es danach herunterbrechen auf weniger Ressourcen.
Ob das hier funktionieren wird, so dass man es mit aktuell verfügbarer Hardware nutzen kann, wer könnte das jetzt außerhalb von Nvidia seriös prophezeien?
Er hat es doch erklärt. Das ist kein Post-Processing filter, wie manche vermutet haben. In dem Moment wo ein Objekt (hier z.B. ein Spieler-Model) geladen wird, rutscht die AI drüber und optimiert das Spieler-Modell auf Geometrie und Textur-Ebene nach den Vorgaben des Entwicklers.
Nimm ein Model für eine Kaffeetasse anno 2010. Jetzt nimmst du die Engine und gibt die Anweisung: "mach ein hochauflösendes Modell daraus. Fülle die Tasse mit Kaffe. Die Kaffetasse ist solide aus Keramik, der Kaffe ist flüssig und 90 Grad heiss und erstelle das zugehörige Physik-Modell".
Da kommt dann schon was geiles raus. Ich sehe darin potential. Das geht genau in die Star-Trek wo auf dem Holodek plötzlich ein bestimmtes Kaffee Paris im Herbst geschaffen wird. Genau dahin biegen wir jetzt langsam ab. Ich verstehe zwar nicht, warum der Kreative-Teil nicht rein in der Entwicklung ist und für das laufende Spiel entwickelt wird - aber zurücklehnen und abwarten.
Der eine macht Artworks, der andere setzt es in ein digitales Asset um, dann schaut der Manager drüber und gibt seinen Senf dazu. Die 'Reinheit' der kreativen Vision ist bei Riesen Projekten doch ein Mythos oder eine romantische Vorstellung. Wir reden hier nicht vom Meisterkünstler und seiner Leinwand. 😁
Naja die Vorgaben sind meist eher grob, vor allem wenn es um Environment Assets geht. Da muss halt der Stil passen, die konkrete kreative Umsetzung und Details ist dem jeweiligen Artist selbst überlassen. Da kommt schon noch viel perönlichkeit mit. Sonst gäbe es auch kaum so viele Easter Eggs in AAA Games.
Mirco-management wo bei jedem Objekt im Detail überprüft wird macht kein wirtschaftliches Projekt ^^
Bei Charactern hast du auch eigentlich immer ganze Design Studien und der Lead sucht sich dann was passendes aus sagen wir mal 6 Konzepten raus. Die Konzepte sind dann aber immernoch Machwerk von meist einer einzigen Person.
Das ist ja das schöne an Games für die Entwickler, bzw ist der Grund warum sie sich so ausnutzen lassen. Weil das eigene Machwerk hinterher eine große Bühne bekommt und sich im Portfolio noch gut eigene Werke im Endprodukt nachvollziehen lassen.
Zum Thema: Dass zwei RTX 5090 verwendet wurden, hat sicherlich Gründe. Auch weitere abseits der genannten. Aber aus meiner Sicht, spricht das schon Bände.
Nein, das spricht gar keine Bände. Dir ist einfach nicht klar, dass AI Models anfangs in der Research Phase sehr langsam und speicherhungrig sind und die Optimierung auf Geschwindigkeit und Speichereffizienz fester Bestandteil des finalen Trainings ist. Geschwindigkeit und Speicherverbrauch können sich da noch um ganze Größenordnungen verschieben.
Man kann aus der Aussage dass es aktuell zwei 5090 braucht absolut GAR KEINE Rückschlüsse auf die Anforderungen ableiten, weil du auch gar nicht weißt welche Schritte Nvidia schon vollzogen hat und welche nicht, sprich welchen Reifegrad wir hier sehen.
Man kann höchstens aus dem gezeigten Bildmaterial ableiten dass es deutlich fordernder als bisher der DLSS Algorithmus sein könnte und sehr wahrscheinlich auch ist.
Aber die 2x 5090 Aussage ist erstmal völlig wertlos.
Übrigens hast du mit deiner Aussage meine ursprüngliche Aussage nur bestätigt.
Ich werd das Gemecker hier und woanders auch nicht kapieren.
Ich sehe es auch einfach mal so das wir hier über den ganzen KI-Slop meckern, zu Recht. Weil diesen bekommen Alle ab.
Aber was wir hier speziell sehen ist doch mal was das eine "KI" auf NVidia-Karten in Rechenzentren zusammengezimmert hat das wir DLSS nennen und nicht Slop.
Das ist ein Riesen-Mehrwert, dafür gabs hier extra Blindtests die das bewiesen haben.
Das bedeutet wir sind einer der wenigen Privilegierten welche einen praktischen Mehrwert direkt spielen können. Ironisch gesagt sollten wir dankbar sein das wir auch was für unser Geld bekommen, das der KI-Boom mit sich brachte.
Bei den ganzen Nachteilen durch KI in anderen Bereichen sollte man sich doch mal freuen.
Aber hier wird das als Angriff auf die persönliche Freiheit gesehen und sogar den Game-Designern unterstellt wird das ihnen die Kreativität rausgerendert wird.
Wie wärs denn wenn wir den Game-Designern wenigstens die Freiheit zugestehen selbst zu entscheiden wie und in welcher Form sie das implentieren und ihnen auch die Wahl lassen es ganz wegzulassen? Anstatt hier Menschen welche für das Unternehmen arbeiten, das bestehen will, den Tod zu wünschen. Wie das dann ankommt entscheiden die Käufer.
Man kann gerne kritisieren und da mache ich dann bei berechtigten Punkten gerne mit aber es wird ja hier mehrheitlich schon richtig persönlich, und das kann man sich sparen, die Diskussion wäre die Hälfte kürzer und sinnvolle Beiträge zur Verbesserung wären kompakter zusammengefasst und könnten dann vielleicht auch von Jensen als Kritik gesehen werden. So sieht er persönliche Angriffe und Ablehnung mehr als die Kritik und dem entgegnet er nun mal. Angemessen im Sinne seines Unternehmens wie ich finde. Er hat ja Recht wenn er sagt das die meisten Unrecht haben weil die meisten eben genauso einen Blödsinn wie hier abgesondert haben, was soll er da denn anderes sagen?
Also ich schreibe in dieser Kommentar-Masse einfach mal: Ich freu mich drauf.
Gerade bei so Spielen wie Starfield, wo der "künstlerische Aspekt" in den extrem faulen Gesichtstexturen und Animationen quasi Null vorhanden ist, wirkt DLSS5 in der Demo wie ein Next-Next-Gen Upgrade. Da ist es mir dann auch egal, ob das Original-Gesicht durch ein komplett anderes ersetzt wird. Bei sowas würde ich das definitiv aktivieren.
Spieler liegen doch mit ihrer Kritik immer falsch und mit einem Lob liegen sie immer goldrichtig. Na ja, die paar Euros/Dollars der Spieler sind eh nicht mehr so relevant.
Die "KI-Herrschaften" sollten sich vielleicht Fragen, wieso KI-Bilder u.ä. für so viele nach KI aussehen.
Hab ich so nicht gesagt.
Ich hab gesagt das meine Vorstellungen nicht durch die KI erfüllt werden sondern das andere zum Teil sehr gut aussehende Resultate erreicht werden!