Ich kann den Aussagen von Jensen ehrlich gesagt nicht wirklich trauen. Er versucht, die Diskussion auf eine "pseudo‑technische" Ebene zu ziehen, aber das eigentliche Problem liegt für mich ganz woanders. Entscheidend ist, wie tief DLSS 5 in die visuelle Darstellung eingreift und wie wenig Kontrolle Entwickler aktuell offenbar darüber haben. Spätestens seit dem Video von Daniel Owen wissen wir, wie eingeschränkt diese Kontrolle tatsächlich ist.
Wenn eine KI nur das fertige 2D‑Bild plus Motion Vectors bekommt, bleibt ihr gar nichts anderes übrig, als generativ zu arbeiten. Sie kennt keine Materialien, keine Shader‑Intentionen, keine stilistischen Vorgaben und nicht einmal die Szene selbst. Sie muss alles interpretieren. Und genau das sieht man an den Beispielen wie dem Make up, der glattere Haut, älter wirkende Figuren, veränderte Haaransätze oder der anderen Lichtstimmungen. Das sind keine Rekonstruktionsfehler, sondern künstlich erzeugte Details, die das zugrunde liegende Modell von nVidia halluziniert und die nicht aus dem eigentlichen Render stammen.
Das verändert zwangsläufig die Wirkung eines Spiels. In Hogwarts wirkt eine Figur plötzlich wie ein junger Erwachsener statt wie ein Schüler. In Resident Evil verschwinden Nebel und Dunst, und die Lichtverhältnisse ändern sich sichtbar. Das hatr meiner Meinung nach nichts mehr mit die Vision der Entwickler zu tun, sondern die Interpretation eines gernerativen Modells.
Ich bin technikoffen und finde es gut, wenn Technik Entwickler oder Spieler unterstützt. Dafür ist sie schließlich da. Aber wir haben doch schon bei früheren DLSS‑Versionen gesehen, wie sich der ursprüngliche Gedanke, schwächere Systeme zu entlasten, verschoben hat. Heute müssen selbst High‑End‑Systeme solche Features aktivieren, weil Entwickler und Publisher an Optimierung sparen.
Die Situation wäre für mich eine andere, wenn DLSS 5 Teil der Engine wäre und Entwickler jeden Aspekt selbst bestimmen könnten, um das gewünschte Ergebnis zu erzielen. Aber das ist nicht der Fall. Und auch wenn jetzt behauptet wird, man könne künftig individuelle Modelle trainieren, glaube ich nicht daran, das würde zusätzliche Kosten verursachen, die kaum ein Studio tragen will.
Es mag sein, dass DLSS 5 „optional“ sein soll, aber wir haben bei Raytracing gesehen, wie schnell aus optional eine Voraussetzung wird. Indiana Jones ist dafür ein gutes Beispiel und das ging meiner Meinung schneller, als wir wohl erwartet haben.
Nvidia ist heute nicht mehr der reine „Grafikkartenhersteller“, den viele noch aus früheren Jahren kennen. Der größte Teil des Umsatzes und vor allem des Gewinns kommt inzwischen aus dem Bereich AI‑ und Server‑Hardware. Gaming‑GPUs sind weiterhin ein bedeutender Markt, aber strategisch längst nicht mehr das Kerngeschäft. Aus dieser Perspektive ist es logisch, dass Nvidia versucht, möglichst viele AI‑basierte Features in möglichst viele Bereiche zu bringen somit auch in Spiele.
Und genau deshalb sehe ich langfristig auch nicht, dass Nvidia ein großes Interesse daran hat, Gaming‑Grafikkarten zu einem wirklich erschwinglichen Preis anzubieten. Wenn man Spielen auch über GeForce Now monetarisieren kann, und wenn AI‑Hardware das eigentliche Hauptgeschäft ist, dann rückt der klassische PC‑Gamer zwangsläufig in den Hintergrund. Gleichzeitig wird es für viele Spieler immer schwieriger, sich Hardware leisten zu können, die die notwendige Leistung überhaupt noch bringt.
Und genau deshalb betrifft dieses Thema alle, auch Radeon‑ und Intel‑Arc‑Nutzer. Durch Nvidias Marktmacht stehen viele Entwickler unter Druck und können es sich teilweise nicht leisten, „nein“ zu sagen. Das führt wieder zu exklusiven Features und das ist am Ende immer zum Nachteil der Spieler.
Darum finde ich es richtig, dass wir als Gamer solche Entwicklungen kritisch hinterfragen und laut werden, wenn uns das Ergebnis nicht gefällt. Das hat nichts mit Technikfeindlichkeit oder Hate zu tun. Mir geht es darum, dass ich wertschätze, was kreative Köpfe wie Story‑Writer, Visual Artists oder Sounddesigner erschaffen.
Solche Features bringen leider schnell den Gedanken in den Führungsebenen von Studios und Publishern auf, dass man durch KI an Personal, Zeit und damit Geld sparen kann, wenn die KI das Endergebnis „aufhübscht“.
Und ganz ehrlich, ein Unternehmen, das Kooperationen mit Firmen wie Palantir eingeht, betrachte ich ohnehin mit einer gewissen Grundskepsis.
Myon schrieb:
Was ist denn aus den Zeiten geworden, wo alle Leute mit offenen Mündern und einem riesengroßen Wow-Effekt alle technologischen Verbesserungen bereitwillig begrüßt haben, wenn Grafik fotorealistischer wurde? Es gibt Milliarden an Video-Comparisons da draußen und eine Verbesserung wurde stets auch als solche wahrgenommen. Und hier bei Neural Rendering und den ersten paar gezeigten DLSS5 Comparisons ist das alles plötzlich anders? Jetzt ist bessere Grafik auf einmal böse und es werden so tollkühne und haarsträubende "verfälschte Künstlerintention" Argumente dagegen vorgebracht. Klingt für mich wie woker Shyt.
Wie ist das eigentlich, wenn ich Halk Hogans Witcher 3 HD Reworked Mod installiere, um die Grafik aufzupolieren? Das kann ja wohl nicht im Sinne der Künstler gewesen sein, die wollten doch dass wir für alle Zeiten die ursprünglichen Low-Res Texturen genießen können. Ich muss noch was gestehen: Ich habe auch in anderen Spielen Mods installiert, um die Optik zu verändern. Rote Objekte wurden blau. Blau! Obwohl die Künstler rot vorgesehen hatten! Bitte liebe Künstler, ich möchte nicht auf den Scheiterhaufen deswegen. Verschont ihr mich?
Der Vergleich hinkt an mehreren Stellen ziemlich stark. Niemand hat etwas gegen technische Fortschritte oder bessere Grafik – das war früher so, und das ist heute nicht anders. Der Unterschied ist: Früher wurde die Grafik besser, weil die Engine mehr leisten konnte oder weil Designer und Entwickler bewusst mehr Arbeit investiert haben, um das Erlebnis für die Spieler zu verbessern.Mit DLSS 5 wird sie angeblich „besser“, weil ein externes KI‑Modell das Bild
nachträglich interpretiert und verändert. Das sind zwei völlig verschiedene Dinge.
Ja, Mods verändern ebenfalls das Spiel und damit auch die Vision der Entwickler. Aber wenn ein Spieler eine Mod installiert, dann
entscheidet er sich bewusst dafür. Er weiß, was die Mod macht, er kann sie jederzeit wieder entfernen, und sie betrifft nur sein eigenes Spielerlebnis. Das ist eine freiwillige, transparente Entscheidung.
Bei DLSS 5 greift dagegen eine
dritte Partei ein – in diesem Fall ein von Nvidia trainiertes KI‑Modell –, das das Bild automatisch verändert. Und auch wenn es heute noch optional ist, weiß niemand, ob das in Zukunft so bleiben wird. Wir haben bei Raytracing gesehen, wie schnell aus „optional“ eine faktische Voraussetzung werden kann.
Ich habe früher selbst gern Mods gespielt, damals zu UT‑ oder Half‑Life‑1‑Zeiten. Heute spiele ich Spiele aber bewusst nur noch „vanilla“.
joel schrieb:
DLSS / RT ist ja auch eine Erfindung von Nvidia, und heute hat AMD vergleichbares, sieht auch gar nicht mal so
unterschiedlich aus, oder?
So wird es auch hier wieder sein.
Der Motor der Weiterentwicklung lässt sich nicht aufhalten, und Nvidia legt halt vor.
Raytracing wurde nicht von Nvidia erfunden, die mathematischen Grundlagen stammen aus den 60ern (u. a. Arthur Appel, Turner Whitted), und in der Filmindustrie wurde RT schon in den 80ern genutzt, z. B. in
Tron oder
The Abyss. Nvidia war lediglich der erste Hersteller, der eine hardware‑beschleunigte Echtzeit‑Implementierung für Consumer‑GPUs gebracht hat.
DLSS ist hingegen tatsächlich eine Entwicklung von Nvidia, da sie die ersten waren, bekannte Techniken mit KI unter einen Hut zu bringen und weiterzuentwickeln.
Soviel Zeit sollten wir uns schon nehmen
LikeHike schrieb:
Sehe ich anders. Wer mir ernsthaft erzählen will dass sich die Charaktere aus Hogwarts Legacy und Resident Evil auf einmal ähnlich sehen, sollte zum Optiker.
Natürlich sind das immer noch unterschiedliche Charaktere, niemand behauptet etwas anderes. Der Punkt ist ein anderer, DLSS 5 erzwingt einen bestimmten Look, einen KI‑generierten „Realismus“, der so im Original gar nicht vorhanden ist aber bei allen Spielen grundlegend gleich ist. Und genau dieser Stilbruch fällt auf und ist gemeint.
p-trettin schrieb:
Nvidia versucht halt echt hart allem und jedem KI aufzudrücken oder umgekehrt krampfhaft Einsatzzwecke für KI zu finden, die wirklich auch Geld abwerfen. Nvidia ist nicht doof. Die sehen die Blase durchaus. Die sehen durchaus, dass aktuell die Uhr tickt ab wann immer mehr ihr Geld da rausziehen weil es keine Rendite bringt. Und das stinkt da ja geradezu danach: ne zweite 5090. Selbst wenn es dann auf einer läuft. Erst heißt es 4090 Performance von der 5070 durch DLSS FG, und nun brauchste dafür dann halt doch die 5090. Genau so in den Rechenzentren wenn man diese Remoteservices nutzt. Und den KI-Teil, den kannste da dann auf den großen KI-Boliden laufen lassen, sollten die Leerlauf haben (sprich die Blase zuschlägt).
Ich sehe das ähnlich, aber für mich geht es noch einen Schritt weiter. Nvidia versucht nicht nur, KI überall reinzudrücken, weil es gerade „modern“ ist, sondern weil ihr komplettes Geschäftsmodell inzwischen auf AI‑Hardware basiert. Die Margen im Rechenzentrum sind gigantisch und genau deshalb muss Nvidia jetzt krampfhaft Einsatzzwecke schaffen, die diese Infrastruktur auslasten.
DLSS 5 wirkt für mich genau wie so ein Versuch, ein generatives Modell, das massiv Rechenleistung braucht und sich perfekt dafür eignet, die eigenen KI‑Chips zu rechtfertigen, egal ob im Gaming‑PC oder im Rechenzentrum für Geforce Now.
Und ja, das Muster kennen wir, "Eine 5070 liefert „4090‑Performance dank KI“, das ist schon kein Zufall, wirkt eher wie eine Strategie.
Was du zu den Rechenzentren sagst, passt ebenfalls ins Bild. Wenn die KI‑Blase abkühlt und die großen Modelle weniger ausgelastet sind, dann braucht Nvidia neue Wege, diese Hardware zu monetarisieren. Remote‑Rendering, KI‑Upscaling, Cloud‑Gaming, das sind alles perfekte Kandidaten, um Leerlaufzeiten zu füllen.
Und genau deshalb bin ich bei DLSS 5 so kritisch. Nicht weil ich Technik ablehne, sondern weil ich sehe, wohin die Reise gehen könnte. Wenn Nvidia es schafft, KI‑Rendering als Standard zu etablieren, dann hängt die gesamte Branche, inklusive AMD und Intel, an einem proprietären Modell, das Nvidia kontrolliert. Und das ist langfristig nie gut für uns Spieler.