Kommentar Kommentar: Nvidia DLSS 5 ist technisch krass – Vergeigt es grafisch nicht!

Verangry schrieb:
Das ganze muss natürlich stimmig in die Spiele untergebracht werden.

Wenn der Entwickler sagt, ich möchte den "Stil" nicht ändern, aber eine Optimierung ist okay, darf DLSS 5 hier nicht den Stil ändern (Farben der Lichquelle etc pp)

Wenn das erstmal ausgereift ist, wird das sicher gut aussehen.

Falls sich noch jemand erinner kann an die ganzen "Texure Packs (TW3, Skyrim etc etc)" welche die gesamten Texturen hoch auflösender gemacht haben, dann aber doch "falsch" wirkten, weil nicht richtig zur Umgebung passend...

Wenn das DLSS 5 final besser hinbekommt, warum nicht?

Was viele Leute in dieser Demo nicht gesehen haben, ist das Machbare im Detail.

Harry Potter sieht jetzt besser aus, und die Leute kritisieren das es ein Original abfälschen könnte. Aber genau darum geht es! Gamer möchten in der Lage sein, jedes Game optisch komplett verfälschen zu können?! Siehe Modding Community ...

Ein Prompt "Make the scene look darker, more mature and cruel by design." ändert alles.

Selbst wenn es keinen individuellen Promt gibt, kann der Entwickler Optionen anbieten. Stellt euch ein Horror Game mit dieser Technologie vor. Das neuste Doom und du klickst Neural Rendering auf ON und es gibt die Stufe "Brutal Nightmare". So "realistisch" hast du noch nie Gore in einem Computerspiel gesehen.

Du kannst aber auch das Gegenteil tun und Hogwarts Legacy freundlicher und Kindgerechter, und zB mit einem Anime Look rendern lassen. Egal ob mit eigenem Promt oder das Game bietet es als Option an.

Bis das mit einer 1000€ Grafikkarte flüssig in 1440p bei 60FPS und nicht spürbaren Input-Lag für den casual Singleplayer Spieler läuft, braucht es sowieso noch 3 GPU Generationen. Das ist wie mit Raytracing auf einer RTX 2080 von 2018 für 1200€ gegen eine heutige RTX 5070 für 600€.

Egal ob NV die Technologie zu früh gezeigt hat und das durch 2 x 5090 realisiert wurde - es ist da. Es geht. Das ist großartig!

Filme? Bud Spencer, SImpsons bis Augsburger Puppenkiste Jim Knopf mit neural rendering ON? Why not?
 
  • Gefällt mir
Reaktionen: xexex, angband1 und Sensei21
Sowas kommt raus wenn Huang Entzug auf den Aktienwert von Nvidia hat. Der man ist längst ein süchtiger im Kontrollverlust, der auf unser aller Kosten eine inhumane Agenda vorrantreibt.
 
Booth schrieb:
Ich habe schonmal erwähnt, dass hier eine gute bis sehr gute Grafik halt noch besser gemacht wird. Von 95% Qualität auf 98%.
Also bei dem Starfield Vergleich ist es eher von 30% auf 110%.

Oder anders gesagt, vorher sah es aus wie ein Spiel von vor 10 Jahren, danach würde mir kein aktuelles Spiel einfallen wo die Gesichter besser aussehen.
 
Ich bin sowieso schon genervt von den ganzen Details die vom eigentlichen Spiel ablenken, dass mir sowas (abseits der AI Slop Qualität) eher auf den Sack gehen wird.

Ich meine, das visual noise Problem in heutigen Spielen ist so schlimm, dass wir alles gelb oder weiß an malen müssen, damit sich der Großteil der Spieler zurecht findet! Da werfen wir nun noch mehr Details drauf um noch mehr gelbe Farbe verteilen zu müssen?

Nvidia wird das nicht hören wollen, aber mir reicht eigentlich schon wie heutige Games aussehen. Es sind immernoch Spiele und keine Lebenssimulation ala Matrix. Ich hasse es, wichtige Details in Räumen nicht zu finden (wenn das Spiel nicht explizit drauf ausgelegt ist), weil überall so viel unwichtiges Zeug herum liegt und man eigentlich nur durch die Gegend rennt bis ein E/F HUD Symbol aufleuchtet.

Und auch bei Figuren will ich nicht die Acht-Finger glattpolierte, aus allen Influencer-Fressen zusammen geklaute und gemittelte Grace Ashcroft spielen, sondern eine sorgfältig von Hand modellierte Version, bei der die Person vor dem Monitor unwissentlich persönliche Dinge hat einfließen lassen, die nur sie kennt und nie wusste, dass sie die eigene Kunst jemals beeinflussen wird.

So wie Steven Spielberg die Außerirdischen in Unheimliche Begegnung der dritten Art nach seinen Eltern schuf und es jahrelang nicht gemerkt hat, macht das jeder Künstler und AI raubt uns diese Ecken und Kanten, macht alles zu einem belanglosen Rauschen...
 
  • Gefällt mir
Reaktionen: Mu Wupp
dx1 schrieb:
Nimm mal Deine AAA-Brille ab. ;)
Ey, ich spiele auch AA-Spiele.
Im Indy-Bereich bin ich kaum unterwegs, aber auch da gibt es DLSS bzw. wenn nicht dann wird es auch nicht benötigt, weil es auch auf nem Toaster flüssig in nativ 16k läuft. Und es ist für Entwickler ja kein großer Mehraufwand.
 
Booth schrieb:
Und hunderttausendfach Slop produzieren.
Blah! Heutzutage sind >95% der Inhalte die produziert werden Müll und dienen einzig dem Zeitvertreib, der eigenen Befriedigung oder dem Profilierungswillen. Wozu werden jeden Tag Millionen Bilder von Orten erstellt, an denen bereits Milliarden davon erstellt wurden?

Stelle dir einfach vor, du könntest ein altes Spiel nehmen und statt dass dafür hunderte Mods mit anderen Texturen, Augen und Frisuren "entwickelt" werden, könnte man das mit einem Klick im Spiel selbst erzeugen lassen. Nach deiner Argumentation wäre die ganze Modding Community praktisch ein "Slop".

Alleine für BG3 gibt es laut Nexusmods über 17000 Mods, die meisten davon sowas:
1773816969981.png

https://www.nexusmods.com/baldursgate3/mods/21925

In Zukunft möglicherweise völlig überflüssig und auf einem ganz anderem Level. Der Bedarf dafür ist eindeutig da, Mods die nur irgendwelche Optik verändern gehören regelmäßig zu der stärksten Kategorie.
1773817241775.png
 
Zuletzt bearbeitet:
Da macht die Jacke mal wieder eine wuchtige Ansage. Nvidia treibt die Konkurrenz vor sich her und der Markt reagiert mit immer neuen Höhenflügen.
Erschreckend erfolgreich, da können auf Sicht nur noch billige Chinakarten ein Gegengewicht werden.
Optisch finde ich es gut aber der Stromzähler... seit wir eine 5090 im Haus haben, tolle Leistung aber zu welchem Preis!?
 
Vielleicht bin ich zu alt, aber mir gefällt diese TikTok-Sprache nicht, die neuerdings in Computerbase Einzug hält. Vielleicht bin ich auch ein wenig sensibel, weil ich schon miterleben musste, wie das Heise-Forum und Golem vor die Hunde gegangen sind.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Seven2758, OpenSystemFan und angband1
@JoeDante Hast du ein Beispiel?

Mir fällt nur das Abdriften in komplett absurde Argumentationsketten auf. Ich war länger nicht in dem Thread, da er sich genau identisch wie jede NV News aufbaut, aber wie zum Geier kann man mit der Anzahl der MODs die Geilheit von AI Slop bzw. dem nächsten logischen Schritt begründen? Nein, bitte nicht wirklich antworten, davor habe ich Angst. Ist rein rhetorisch gemeint.
 
Taxxor schrieb:
Also bei dem Starfield Vergleich ist es eher von 30% auf 110%.
Hier muss man allerdings hinzufügen, als ursprünglich von AMD mitfinanziertes Spiel, unterstützt es bis heute keinerlei Raytracing. Hier hätte vermutlich schon "simples" Global Illumination RT, die Optik des Spiels auf ein anderes Level gebracht.
 
  • Gefällt mir
Reaktionen: Mcr-King
...und wenn man das mal maximal negativ ausgelegt in die Zukunft extrapoliert: Dann kann man ja Grafikkarten mit weniger Grafik-Rechenleistung und Speicher bauen und lässt den Kunden trotzdem mehr bezahlen. Denn die Grafik sieht ja laut Nvidia trotzdem besser aus ^^.

So ähnlich wurde doch auch mit dem upsampling und frame Generation argumentiert. :(
 
Ich frage mich, auf welchen nicht erhältlichen, zu teuren und mit chronisch zu wenig VRAM ausgestatteten GPUs das lokal laufen soll.

Wenn ich sehe, dass es seit sechs Jahre RT/PT gerade einmal eine handvoll Spiele gibt, wo es mir das wirklich Wert ist, es anzuschalten als überpriviligierter 4090-Nutzer.

Aktuell sieht es aus, als wäre es ein weiteres Leuchtturm-Feature für 0,1% aller Heavy-PC-Gamer, die das mit heftigem Upsampling und Frame-Gen auf einer 3k, 600 Watt-GPU überhaupt nutzen können. Wann soll denn das "massentauglich" irgendwo ankommen, wenn zwei Drittel des weltweiten Marktes gar nicht mit nVidia-Hardware "bespielt" werden, schon gar nicht in der Leistungsliga? In dieser Martklage?

Das kann doch eigentlich nur im "Game-Stream-Business" funktionieren, also dass es für "lokal" am Ende gar nicht gedacht ist. Wir werden es sehen, ich bin gar nicht mal so gehyped, denn das Wohl des Endbenutzers steht offenkundig nicht im Fokus.
 
  • Gefällt mir
Reaktionen: Mcr-King und BeowulfAgate
xexex schrieb:
Der Bedarf dafür ist eindeutig da, Mods die nur irgendwelche Optik verändern gehören regelmäßig zu der stärksten Kategorie.
Man sollte sich dabei aber auch vor Augen halten, dass das Austauschen oder Hinzufügen von Assets meist bedeutend einfacher ist als umfängliche Änderungen am Gameplay, Maps oder Quests. Dazu kommt, dass du abermillionen verschiedene Kleidungen, Charaktere etc. erstellen kannst. Um Aspekte des Gameplays zu verändern (bspw. die Blockzeiten von E33 zu verändern) reicht dir dagegen ein einziger Mod.
Der Bias allein wird bereits einen Großteil der Modverteilung erklären. Mit Nachfrage hat das m.M.n. erst einmal nichts zu tun. Ohne diesen Bias zu bereinigen wäre ich vorsichtig mit Thesen dieser Art.
 
Ich finde tatsächlich, dass es stellenweise echt gut aussieht. Wie realistisch die Beleuchtung und vor allem die Gesichter werden ist unfassbar gut. Klar es war nur eine Demo und da ist noch viel Potential nach oben, aber wenn so die Zukunft des fotorealistischen Gamings aussieht - immer her damit!
 
Ich verstehe Leute die es gut oder eher nicht finden, aber keinen der sich darüber aufregt. Who cares? Kannst es nutzen oder eben weiterhin nicht. Keiner wird gezwungen! Wie kann man sich nur über neue Features ärgern? Verstehe ich nicht. Je mehr Auswahlmöglichkeiten, umso besser. Sollen die rumprobieren anstatt auf der Stelle zu treten. Kann von Spiel zu Spiel varieren und man entscheidet sich halt für sich selbst für das bessere Bild.
 
Cat Toaster schrieb:
Wann soll denn das "massentauglich" irgendwo ankommen, wenn zwei Drittel des weltweiten Marktes gar nicht mit nVidia-Hardware "bespielt" werden, schon gar nicht in der Leistungsliga? In dieser Martklage?
Ich würde gerne mal die Basis dieser Zahlen kennenlernen, der PC Markt sieht (außerhalb der CB Blase) aktuell jedenfalls so aus.
1773823248813.png


Eigentlich wird aber anders herum ein Schuh draus! Mit der Technologie könnte es für die Entwickler leichter werden, die Grafik für schwächere Plattformen zu optimieren und gleichzeitig Nutzern potenter Hardware, ein optimales Ergebnis zu bieten.

Es ist wie bei Cyberpunk 2077, das sieht ganz ohne RT bereits in Ordnung aus, mit PT wird die Grafik auf ein völlig neues Level gehoben, ohne dass die Entwickler selbst die Hand an die Inhalte gelegt hätten. Beleuchtung ist aber eben nicht alles, wie man sehr gut an Hogwarts Legacy sieht, das sieht auch mit gutem Licht bereits in die Jahre gekommen aus, was sich scheinbar mit DLSS5 ähnlich aufpeppen lässt.

Zukünftig ist ein "Remake" bereits mit der Integration von DLSS5 möglich. Aus einem 10 Jahre alten Spiel, wird dann visuell ein 2-3 Jahre altes gemacht, ohne die Spielinhalte selbst verändern zu müssen.
 
  • Gefällt mir
Reaktionen: Mcr-King
@xexex Die "Zahlenbasis" ist ganz einfach: Ich rede nicht nur vom PC-Markt. XBOX, PS5 und SteamDeck sind AMD-Getrieben und die wenigstens Blockbuster werden mit "nVidia allein im Kopf" gemacht. Und ich bezweifle das Nintendo hier irgendwelche magischen nVidia-Features auspacken kann.
 
Ich aeussere mich mal mit einer Meinung, die sicherlich in einer Minderheit ist:

Grafik ist gut genug geworden. Grafik ist sogar schon seit etlichen Jahren gut genug geworden.
Und die beste Grafik hilft nicht, wenn das Spiel dahinter kein gutes Spiel ist.
Viel wichtiger als die Grafikqualitaet ist die Qualitaet des Interfaces, der Bedienung des Spieles und dessen GUI. Wenn ich ein Problem mit alten Spielen habe, dann ist es eher sowas dass mich abhaelt nochmal ein altes Spiel zu spielen.
Ein Gothic, ein Might and Magic 6 und 7 (Mit Interface Overhaul), ein Wizardry 8... Alles Uralte Spiele, mehr als 20 Jahre alt, und machen mir immer noch wahnsinnig viel Spass.

Wenn man dann dazu bedenkt wieviel Aufwand betrieben werden muss um Grafik auf immer hoehere Level zu heben, gehe ich sogar einen Schritt weiter und sage: Ich will garkeine bessere Grafik.
Ich haette lieber gute Spiele, und auch wichtig, einen effizienteren Umgang mit Ressourcen. Eine GPU muss nicht dauernd auf 100% laufen und hunderte an Watt in Waerme umsetzen.
 
  • Gefällt mir
Reaktionen: Alphanerd, BeowulfAgate, CountSero und eine weitere Person
Taxxor schrieb:
Also bei dem Starfield Vergleich ist es eher von 30% auf 110%.
Du hast meine Prozente nicht verstanden.
0% ist quasi Pong von 1976 - also das quasi grafisch schlechteste Spiel, was man sich vorstellen kann.
100% wäre das grafisch denkbar beste Spiel, was man auf Monitoren werfen kann.

Ich würde eher sagen, Games der 90er Jahre lagen bei 30%.
Starfield ist sicher relativ hässlich bzgl Gesichter... war aber Skyrim auch. Starfield lag dann vielleicht bei 80/85%? Nun dann sicher bei 95%?
Und zwar nur bzgl. Gesichter! Der Rest sieht nicht soviel anders aus und das Spiel ändert sich ja ansonsten kein bisschen.

Wie ich schonmal schrieb - die paar Tausend, die Starfield gut finden, werden sich freuen. Der Großteil der das Spiel eher schwach fand, wird es genauso schwach trotz besserer Gesichter finden. Deshalb finde ich die Verbesserung/Änderung schlicht marginal.

xexex schrieb:
Blah! Heutzutage sind >95% der Inhalte die produziert werden Müll und dienen einzig dem Zeitvertreib
Ne - der Müll dient m eines Erachtens dazu, Klicks zu generieren, um Kohle abzugreifen. Sowas zu übersehen, finde ich... seltsam.
Stelle dir einfach vor, du könntest ein altes Spiel nehmen und statt dass dafür hunderte Mods mit anderen Texturen, Augen und Frisuren "entwickelt" werden, könnte man das mit einem Klick im Spiel selbst erzeugen lassen
Wie ich schon sagte, gibt es die Möglichkeit, dass bei umso schlechterer Referenz-Grafik das LLM-Grafik-Modell umso wildere "Interpretationen" baut. Wir wissen nicht, wie sehr das der Fall sein wird.
Wer LLMs benutzt hat, weiss, dass das Ergebnis extrem von der verwendeten Datenbasis abhängt. Je schlechter die zu Grunde liegende Referenz ist, desto seltsamer können die Ergebnisse werden.

Abgesehen davon... das Spiel ansonsten bleibt identisch.
Aktuelles Beispiel: Remake von System Shock von 1994. Ich bin verdammt froih, dass die Grafik nicht nur extrem aufgemotzt wurde, sondern der Style beibehalten wurde UND viele Mechaniken leicht angepasst wurden. Das Spiel ist INSGESAMT modernisiert worden. Das kann halt eine Grafikanpassung nicht.

Und wenn Du am Anfang den Hinweis gibst, dass viele LLMs als Selbstzweck nutzen (was ich auf die Gesamtmenge keinesfalls glaube), nimmst Du diesen Leuten ja dadurch ihre Spielerei an Mods quasi weg. Was mir völlig egal ist, weil ich selten bis nie Mods nutze. Ich spiele Spiele, wie sie ausgeliefert werden, oder gar nicht.
Nach deiner Argumentation wäre die ganze Modding Community praktisch ein "Slop"
Vieles davon IST "slop". Schau es Dir mal mit nüchterner Distanz an.
Das ist aber auch irrelevant.

Ich wollte eigentlich nur eines empfehlen: Bleib skeptisch. Noch ist diese Technik gar nicht da.
Ich erinnere mich noch daran, wie vor 15 Jahren PhysX von einigen als "Gamechanger" angesehen wurde und man dachte, ab sofort werden Spiele bzgl. Physik-Simulation totaaaaaaal realistisch.
Tja - ne - ist nicht passiert.

Ich finde, dass wir hier als technisch interessierte Konsumenten und teilweise sogar Mitarbeiter der IT Industrie einfach etwas skeptisch bleiben sollten. Du offenbar nicht. Ist OK. Wir haben scheinbar unterschiedliche Heransgehensweisen.
 
Ich frage mich sowieso was das soll: Ist das Spiel fesselnd, achtet man nicht auf solchen Firlefanz. Taugt es nichts, wird es auch durch irgendein UDLSMHTS *) nicht besser.

*) UltraDeepLearningSuperMegaHyperTurboSampling
 
  • Gefällt mir
Reaktionen: Mcr-King
Zurück
Oben