Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News „Ich mag keinen AI Slop“: Nvidias CEO versucht die DLSS-5-Wogen zu glätten
- Ersteller Jan
- Erstellt am
- Zur News: „Ich mag keinen AI Slop“: Nvidias CEO versucht die DLSS-5-Wogen zu glätten
Das kann aber dann von Spieler zu Spieler, variieren?!Apocalypse schrieb:Zur runtime, nachdem der Frame fertig ist, wird der als Basis genommen um ein neues Bild auf Basis dieses Frames zu erstellen das halt "hübscher" ist. Wieviel "hübscher" kann der Entwickler der AI mitgeben, aber arbeiten tut das Modell eben direkt erst beim Spielen.
Wird natürlich auch vom Entwickler getestet werden, ob eh alles anständig aussieht. Aber DLSS 5 arbeitet hier eben zur Laufzeit und in Echtzeit.
Nvidia nutzt sowas wie cuLitho fürs Chipdesign. Also sinnvolle AI.SDJ schrieb:Ein profitabler Dealer nimmt seine Drogen idR auch nicht selbst![]()
DonDonat
Rear Admiral
- Registriert
- Apr. 2013
- Beiträge
- 5.509
Würde DLSS5 tatsächlich auf Basis der Geometrie, Beleuchtung etc. Änderungen vornehmen können, also so dass diese wirklich genau für bestimmte Objekte, Klassen oder Gegenden gesteuert werden könnten, dann wäre die Technik tatsächlich ziemlich interessant.
So wie sie nun aber praktisch ist, ist es einfach ein "KI Filter" ala Instagram & Co. der als letzter Schritt vor dem Ausgabe-Bild liegt und Echtzeit-Slop Bilder generiert.
Sowas möchte natürlich kein Spieler und wahrscheinlich auch kein Entwickler weil es Beleuchtung, Schatten, Kontraste, Details (ja, auch Details sind ein Werkzeug) etc. komplett kaputt machen muss weil es eben nicht in den 3D Daten des Spiels angesiedelt ist sondern nur in Filter der einfach oben drauf geklatscht wird.
Wenn man wöllte, könnte man sich sowas auch selbst schreiben: schön kleines Bild-Generierungs-Modell noch weiter optimieren und dann als Overlay über die Ausgabe packen. Ist letztlich genau dass, was DLSS5 macht, nur dann halt etwas mehr "Ghetto Modded".
Oder was der CEO eigentlich sagen wollte: es ist ein Tool für Publisher wie sie mit deutlich weniger Arbeiter/Künstler auskommen.
So wie sie nun aber praktisch ist, ist es einfach ein "KI Filter" ala Instagram & Co. der als letzter Schritt vor dem Ausgabe-Bild liegt und Echtzeit-Slop Bilder generiert.
Sowas möchte natürlich kein Spieler und wahrscheinlich auch kein Entwickler weil es Beleuchtung, Schatten, Kontraste, Details (ja, auch Details sind ein Werkzeug) etc. komplett kaputt machen muss weil es eben nicht in den 3D Daten des Spiels angesiedelt ist sondern nur in Filter der einfach oben drauf geklatscht wird.
Wenn man wöllte, könnte man sich sowas auch selbst schreiben: schön kleines Bild-Generierungs-Modell noch weiter optimieren und dann als Overlay über die Ausgabe packen. Ist letztlich genau dass, was DLSS5 macht, nur dann halt etwas mehr "Ghetto Modded".
Oder was der CEO eigentlich sagen wollte: es ist ein Tool für Publisher wie sie mit deutlich weniger Arbeiter/Künstler auskommen.
Heavynator
Cadet 1st Year
- Registriert
- März 2026
- Beiträge
- 9
Ich hab das Gefühl, dass DLSS5 genau hierfür ursprünglich entwickelt wurde. Weil genau hier bekommt es tatsächlich recht gute Ergebnisse hin. Entspricht auch eher dem Upscaling Gedanken hinter DLSS.DevPandi schrieb:Es gibt Sachen da zeigt DLSS 5, welche Vorteile es bringen kann, weil plötzlich Strukturen in Kleider noch feiner sein können, sogar mit "Ebenen".
Ähnlicher als ohne DLSS5. Ich finde den Vergleich mit einem Instagram-Filter sehr passend, so als ob diese (definitiv unterschiedlich gestalteten) Figuren von der gleichen Influencer-Tussi mit dem gleichen Insta-Filter fotografiert worden wären.LikeHike schrieb:Sehe ich anders. Wer mir ernsthaft erzählen will dass sich die Charaktere aus Hogwarts Legacy und Resident Evil auf einmal ähnlich sehen, sollte zum Optiker.
- Registriert
- März 2025
- Beiträge
- 768
Mehr Details und realistischer =/= ähnlicher.stefan92x schrieb:Ähnlicher als ohne DLSS5.
- Registriert
- Okt. 2012
- Beiträge
- 7.925
Weil es aktuell nicht geplant ist. Denk dran, aktuell rennt das in der Demo nur auf 2x 5090. Eine für den normalen Frame und die zweite für den GenAI Filter.LikeHike schrieb:Warum nicht? Ich meine klar, DLSS5 bietet die Funktion aktuell nicht, aber genau solche Eingaben sind im Hintergrund sehr wohl möglich. Das ist ja das geniale daran.
Die haben genug damit zu tun hier zu optimieren damit das irgendwie dieses Jahr noch tatsächlich nützlich wird und auf einer 5090 läuft, oder besser noch auch auf Karten die nicht 3000€ kosten.
Was in den nächsten Jahren ist, steht in den Sternen, DLSS 5 konkurriert hier auch mit anderen Neural Rendering Techniken. Und wenn du sagst das so das ganze Geniale an der Technik verschenkt wird, dann hast du einen der Hauptkritikpunkte an DLSS 5 jetzt tatsächlich auf den Punkt gebracht! ;-)
Tech-Preview und so, man wird sehen wie es dann 2027 oder 2028 aussieht. Hat Potential, kann auch total kacke werden. Aktuell ist es imho ziemlich meh.
Ergänzung ()
Nvidia sagt nein, das Modell arbeitet deterministisch, also die Ausgabe ist immer gleich, wenn die Eingabe auch gleich ist.rentex schrieb:Das kann aber dann von Spieler zu Spieler, variieren?!
Von Szene zu Szene hingegen kann es dann wohl wirklich Abweichungen geben.
Gigaherz
Commander
- Registriert
- Okt. 2023
- Beiträge
- 2.582
Sondern einfaches Post-Processing, das die von der Engine gerenderten Bilder einfach hässlicher erscheinen lässt.DLSS 5 sei kein einfaches „Post-Processing“, das die von der Engine gerenderten Bilder einfach hübscher erscheinen lässt.
- Registriert
- Okt. 2012
- Beiträge
- 7.925
Durchaus möglich das wir hier ein Abfallprodukt von einer anderen Neural Rendering geschichte sehen. Neural Textures? Keine Ahnung.Heavynator schrieb:Ich hab das Gefühl, dass DLSS5 genau hierfür ursprünglich entwickelt wurde. Weil genau hier bekommt es tatsächlich recht gute Ergebnisse hin. Entspricht auch eher dem Upscaling Gedanken hinter DLSS.
Bitter ist, das er behauptet das sein kei Postprocessing... Wenn klar ist, das DSSL5 nur das 2d Bild bekommt.
Aber sorry, selbst mit Bewegungsinformationen - dann ist das ein besseres Postprocessing...
By the way - ich bin nihct generell gegen Postprocessing. In Film und Fernsehen haben wir das auch, und das kann schon sehr zur Verbesserung beitragen. Schon das Hochskalieren am Fernseher ist klassisches Postprocessing..
Aber sorry, selbst mit Bewegungsinformationen - dann ist das ein besseres Postprocessing...
By the way - ich bin nihct generell gegen Postprocessing. In Film und Fernsehen haben wir das auch, und das kann schon sehr zur Verbesserung beitragen. Schon das Hochskalieren am Fernseher ist klassisches Postprocessing..
imperialvicar
Lieutenant
- Registriert
- Sep. 2023
- Beiträge
- 524
Der Typ sollte eigene Fabriken eröffnen
Kann doch so nicht weiterwurschteln
Kann doch so nicht weiterwurschteln
Ich schon, er versucht nochmal (wie bei Physix in Ansätzen auch schon) ein Monopol her zu stellen.woliver23 schrieb:Ich steige weder in den Hype Train, noch in den Hate Train ein, sondern warte am Ich-schaue-es-mir-dann-erst-einmal-an Bahnhof.
AMD ist grade dabei etwas halbwegs vergleichbares zu DLSS 4.5 raus zu bringen (FSR 4.1) und Nvidia meint schon vor zu breschen mit etwas das man DLSS 10 oder so nennen könnte wenn die Leute es gemocht hätten ein vermeintlich massiver Uplift an Realismus.
Das ist höchst aggressives Marketing, das ist ungefähr so wie wenn 2 Kerle um ne Frau werben und einer sagt ohh ich hab hier Blumen, der andere ohh schau ich hab ne Packung Pralinen, und noch bevor der den Satz richtig ausspricht sackt der andere wenn bis morgen wartest bring ich dir nen Auto und er zeigt schon Bilder davon und dann fällt jemand auf das das nur nen Bild von nem aufblassbaren Fake Auto ist, er will aber damit werben das er ihr morgen ganz bestimmt ein teures Auto schenken wird.
Ja vergleiche und das spontan sind immer schwierig, aber man kann nicht einfach Marketing machen das wenn man die Leute erfolgreich "verarscht" AMD komplett tot ist, zumindest alles was über Casual oder sowas hinaus geht, und wenn auffällt das damit getrickst wird und das in sich zusammen fällt kein gleich großen Gegenwind erwarten.
Auch wurde sonst in den Vergleichsbildern noch zusätzlich Nvidia Typisch gelogen:
1. wurden die Vergleichsbilder mit irgendwas Richtung Xbox S gerendert das sind keine Ultra Raster/Raytracing Bilder.
2. wurde der Kontrast massiv beim neuen Bild erhöht und die schärfe
Letzteres war halt ein zweischneidiges Wert zum einen sieht es nach mehr schärfe und Detail aus, zum anderen erzeugt es solch ein extremen Unterschied das die Gesichter so extrem anders und A.I. Slop aussehen. Hätte man darauf verzichtet wäre sowohl der Hype als auch der Shitstorm geringer geworden, der Unterschied wäre halt kleiner.
Werbung ist nun mal nur ein neumodisches Wort für Propaganda darf man nicht vergessen identische Techniken und wenn mich jemand Gaslighten oder manipulieren will um eine Art Monopol zu bekommen reagiere ich da allergisch.
Auch sollte es normal sein das ein Marktführer mehr hate ab bekommt als irgend ne random Firma, das ist bei Microsoft auch der Fall oder bei Google für Suchmaschinen oder X bei Social Media und auch bei anderen.
Bei David gegen Golliath ist nunmal auch David mehr beliebt weil er der Underdog ist oder anders gesagt Golliath bekommt mehr hate.
Das ist mal wieder ein gutes Beispiel dafür, dass man sehr genau hinsehen muss, was KI im jeweiligen Fall ist. KI ist ein Buzzword und umfasst viele Algorithmen, die teilweise seit Jahrzehnten verwendet und optimiert werden, wird heute für zig Anwendungsfälle genau so wie vor Jahrzehnten eingesetzt, nur heißt heute halt KI.
Es stellt sich nämlich hier die zentrale Frage, ob diese KI ein gesteuerter Algorithmus ist oder ob es eine generative KI ist, die aus irgendwelchen Modellen, die irgendwo und irgendwie trainiert wurden, dann für den Spieleentwickler (=Künstler) UNVORAUSSEHBARE Inhalte ins Spiel einbaut. Wenn sie das nicht tut, ist es meiner Auffassung nicht das, was man wirklich als KI bezeichnen sollte. Nun sagt er, der Künstler habe die Kontrolle. Dann ist es keine KI, denn es ist der Witz an KI, dass man die finale Kontrolle über das Ergebnis nicht hat. Zu sagen, man könne ja die Leitplanken festlegen, ist da heuchlerisch. Denn eine Leitplanke, die heute wirkt, wirkt morgen halt nicht mehr. KI lernt ja. Tut sie es nicht, ist es keine KI. Ich denke wirklich, dass man für KI akzeptieren muss, dass das Ergebnis in gewisser Weise offen ist und sich auch verändert.
Jedoch - ich mir durchaus Anwendungen vorstellen, wo man gerade das Generative will, auch als Spieleentwickler / Künstler. Vielleicht will man ja, dass z.B. irgenwelche Nebendarsteller wirklich zufällig generiert werden. Kann ja sein. Auch Dinge wie Wetter könnte ich mir als KI gesteuert vorstellen. Ich könnte mir sogar Spiele vorstellen, die gerade mit dieser Unvorhersehbarkeit arbeiten bzw. mit einer Individualisierung an den individuellen Spieler, seine Vorlieben etc..
(Ich mein da sind wir natürlich sofort in der Ecke des Internets, wo angeblich das meiste Geld zu verdienen ist. Ich mein wer will schon jedes Mal mit der/dem selben.... hust. )
Da kann durchaus Potential liegen. Aber aktuell - und so wurde und wird es ja immer wieder kommuniziert - muss man befürchten, dass DLSS 5 schlicht auf alles losgelassen wird. Und es gibt keinen Grund anzunehmen, dass dies nicht so sein wird, allein vom Namen her - und von der Motivation Nvidias.
Nvidia versucht halt echt hart allem und jedem KI aufzudrücken oder umgekehrt krampfhaft Einsatzzwecke für KI zu finden, die wirklich auch Geld abwerfen. Nvidia ist nicht doof. Die sehen die Blase durchaus. Die sehen durchaus, dass aktuell die Uhr tickt ab wann immer mehr ihr Geld da rausziehen weil es keine Rendite bringt. Und das stinkt da ja geradezu danach: ne zweite 5090. Selbst wenn es dann auf einer läuft. Erst heißt es 4090 Performance von der 5070 durch DLSS FG, und nun brauchste dafür dann halt doch die 5090. Genau so in den Rechenzentren wenn man diese Remoteservices nutzt. Und den KI-Teil, den kannste da dann auf den großen KI-Boliden laufen lassen, sollten die Leerlauf haben (sprich die Blase zuschlägt).
Es stellt sich nämlich hier die zentrale Frage, ob diese KI ein gesteuerter Algorithmus ist oder ob es eine generative KI ist, die aus irgendwelchen Modellen, die irgendwo und irgendwie trainiert wurden, dann für den Spieleentwickler (=Künstler) UNVORAUSSEHBARE Inhalte ins Spiel einbaut. Wenn sie das nicht tut, ist es meiner Auffassung nicht das, was man wirklich als KI bezeichnen sollte. Nun sagt er, der Künstler habe die Kontrolle. Dann ist es keine KI, denn es ist der Witz an KI, dass man die finale Kontrolle über das Ergebnis nicht hat. Zu sagen, man könne ja die Leitplanken festlegen, ist da heuchlerisch. Denn eine Leitplanke, die heute wirkt, wirkt morgen halt nicht mehr. KI lernt ja. Tut sie es nicht, ist es keine KI. Ich denke wirklich, dass man für KI akzeptieren muss, dass das Ergebnis in gewisser Weise offen ist und sich auch verändert.
Jedoch - ich mir durchaus Anwendungen vorstellen, wo man gerade das Generative will, auch als Spieleentwickler / Künstler. Vielleicht will man ja, dass z.B. irgenwelche Nebendarsteller wirklich zufällig generiert werden. Kann ja sein. Auch Dinge wie Wetter könnte ich mir als KI gesteuert vorstellen. Ich könnte mir sogar Spiele vorstellen, die gerade mit dieser Unvorhersehbarkeit arbeiten bzw. mit einer Individualisierung an den individuellen Spieler, seine Vorlieben etc..
(Ich mein da sind wir natürlich sofort in der Ecke des Internets, wo angeblich das meiste Geld zu verdienen ist. Ich mein wer will schon jedes Mal mit der/dem selben.... hust. )
Da kann durchaus Potential liegen. Aber aktuell - und so wurde und wird es ja immer wieder kommuniziert - muss man befürchten, dass DLSS 5 schlicht auf alles losgelassen wird. Und es gibt keinen Grund anzunehmen, dass dies nicht so sein wird, allein vom Namen her - und von der Motivation Nvidias.
Nvidia versucht halt echt hart allem und jedem KI aufzudrücken oder umgekehrt krampfhaft Einsatzzwecke für KI zu finden, die wirklich auch Geld abwerfen. Nvidia ist nicht doof. Die sehen die Blase durchaus. Die sehen durchaus, dass aktuell die Uhr tickt ab wann immer mehr ihr Geld da rausziehen weil es keine Rendite bringt. Und das stinkt da ja geradezu danach: ne zweite 5090. Selbst wenn es dann auf einer läuft. Erst heißt es 4090 Performance von der 5070 durch DLSS FG, und nun brauchste dafür dann halt doch die 5090. Genau so in den Rechenzentren wenn man diese Remoteservices nutzt. Und den KI-Teil, den kannste da dann auf den großen KI-Boliden laufen lassen, sollten die Leerlauf haben (sprich die Blase zuschlägt).
- Registriert
- Apr. 2001
- Beiträge
- 17.785
Jensen selbst sagt, dass mit DLSS 5 Gen AI für Entwickler verfügbar wird.p-trettin schrieb:Es stellt sich nämlich hier die zentrale Frage, ob diese KI ein gesteuerter Algorithmus ist oder ob es eine generative KI ist, die aus irgendwelchen Modellen, die irgendwo und irgendwie trainiert wurden, dann für den Spieleentwickler (=Künstler) UNVORAUSSEHBARE Inhalte ins Spiel einbaut.
Heavynator
Cadet 1st Year
- Registriert
- März 2026
- Beiträge
- 9
Ne, das ist nochmal was anderes und geht Richtung Neural Shaders, was direkt im Rendering Path sitzt und ähnlich wie RayTracing bestimmte Rasterizer Berechnungen ersetzen soll.Apocalypse schrieb:Durchaus möglich das wir hier ein Abfallprodukt von einer anderen Neural Rendering geschichte sehen. Neural Textures? Keine Ahnung.
Man kann nur spekulieren, aber es scheint mir so, als ob Nvidia versucht hat nen erweiterten Upscaler zu entwickeln, der geziehlt Texturen im Post Process verbessert (nachdem das vorherige Rendering hier Details verworfen hat), dann aber ungewollt oder sogar gewollt übers Ziel hinaus geschossen ist.
Man kann halt etwas bessere Texturen nicht so gut vermarkten, wie "doppelt so viel FPS", oder diesen Filter, der das Bild radikal verändert.
Aber wie gesagt: reine Spekulation, Beweise gibt es hierfür kein.
RotkohlRitter
Ensign
- Registriert
- Feb. 2020
- Beiträge
- 170
Die Menge/Intensität Kritik möchte ich nicht beurteilen, aber aus Nvidia Sicht hätten sie damit rechnen müssen, dass es diese Kritik gibt. Am Ende ist das auch egal, ob man diese als gut, schlecht, unangebracht oder verfrüht betrachtet. Das sind eben die Gegebenheiten mit denen Nvidia arbeiten muss, egal ob sie einem gefallen oder nicht. Für Nvidia sollte es wichtig sein, dass der Ersteindruck von DLSS 5 in der Öffentlichkeit positiv aufgenommen wird und das hat man weit verfehlt.ascer schrieb:Nichtsdestoweniger finde ich die Menge und Intensität der Kritik als vollkommen ungerechtfertigt. Wir haben einen Preview auf eine neue Technologie gesehen, die dann auch erst mal ihre Wege in Spiele und weitere Patches finden wird. Welches Spiel sieht denn im Alpha- und Beta-Trailer genauso aus wie in der v1.0?
Für mich kommt DLSS 5 nicht wie eine Alpha/Beta oder Preview vor, sondern wie eine interne erste Vision oder eine von vielen Konzeptvorstellungen. Man hat es aber nicht als "RTX Neural Lighting Vision" präsentiert, sondern als Produkt "DLSS 5". Wenn ich das ganze mit der Spiele-Entwicklung vergleichen würde, dann wirkt DLSS 5 eher wie eine erste interne Build, die noch extrem weit von dem fertigen Produkt entfernt ist. Der Unterschied zu Nvidia ist hier aber, dass ein Spieleentwickler solche Builds der Öffentlichkeit i. d. R. nicht zeigen möchte, weil es ein schlechtes Licht auf das Spiel werfen kann, bevor es überhaupt auf den Markt kommt, egal ob negative Kommentare gerechtfertigt sind oder nicht.
Und damit komme ich wieder zu meinem Fazit, dass mann DLSS 5 als Produkt viel zu früh und unüberlegt präsentiert hat. Man sieht ja auch, wie die Leute von Nvidia gerade versuchen den Karren aus dem Dreck zu ziehen ("Entwickler werden in Zukunft ihr eigenes Modell trainieren und mit eigenen Prompts nach steuern können" --> Warum sowas nicht gleich im Ankündigungstrailer ansprechen?).
Warum hat man sich nicht noch Monate oder ein Jahre bis zur neuen Hardware Generation an Hardware Zeit gelassen (wäre ja ein gutes Feature für RTX 60)? Man hat DLSS 4.5 erst gerade im Januar gezeigt, RR 4.5 und (Dynamic) FG 6x sind noch nicht mal draußen. Neue Hardware von AMD und bei den Konsolen stehen auch noch nicht an. Warum hat man nicht vorher mit Entwicklern evaluiert, wie es optisch ankommt, woran man arbeiten sollte oder was es vielleicht noch an Steuerungsmöglichkeiten bräuchte? Warum nicht warten und DLSS 5 anhand eines Entwicklerstudios zeigen, wie diese DLSS 5 eigens trainiert, eingesetzt, gesteuert, angepasst haben, damit man den Menschen den Wind aus den Segeln nimmt, die die künstlerische Bedenken haben?
Der Zeitpunkt der Präsentation von DLSS 5 ergibt für mich auf so vielen Arten keinen Sinn, außer es geht hier nur um die Börse.
mal sehen, wie unterschiedlich die Spielfiguren dann demnächst in den Tests ausschauen werden ;-P
ich denke zudem nicht, dass sich viele Entwickler den Zusatzaufwand antun werden, das auch noch in ihre Spiele integrieren zu müssen
ist alles viel zu speziell
alles, was auf Knopfdruck und vollautomatsich geht, ist sicherlich gern gesehen, aber das hier riecht wieder an viel zu geringer Verbreitung und Integrationsproblemen
viele "Programmierer" verwenden einfach die UE Engine und nehmen alles so wie es ist, ohne Aufwand bei (Leistungs)Optimierung und Fehlerbehebung, schnell schnell was zusammengekleistert, roh mit Fehlern auf den Markt, hopp, nächstes EA Game präsentieren
jeder muss Geld einsparen, udn da fängt es nunmal an, deshalb nimtm nun jeder auch Billig-KI, weils damit schneller und einfacher geht, und man keine Ahnung mehr haben muss
Spiele werden also qualitativ immer schlechter als besser
und KI generierte Grafikinhalte sorgen dann ebenfalls für Sodbrennen
ich denke zudem nicht, dass sich viele Entwickler den Zusatzaufwand antun werden, das auch noch in ihre Spiele integrieren zu müssen
ist alles viel zu speziell
alles, was auf Knopfdruck und vollautomatsich geht, ist sicherlich gern gesehen, aber das hier riecht wieder an viel zu geringer Verbreitung und Integrationsproblemen
viele "Programmierer" verwenden einfach die UE Engine und nehmen alles so wie es ist, ohne Aufwand bei (Leistungs)Optimierung und Fehlerbehebung, schnell schnell was zusammengekleistert, roh mit Fehlern auf den Markt, hopp, nächstes EA Game präsentieren
jeder muss Geld einsparen, udn da fängt es nunmal an, deshalb nimtm nun jeder auch Billig-KI, weils damit schneller und einfacher geht, und man keine Ahnung mehr haben muss
Spiele werden also qualitativ immer schlechter als besser
und KI generierte Grafikinhalte sorgen dann ebenfalls für Sodbrennen
Ähnliche Themen
- Antworten
- 1.003
- Aufrufe
- 45.464