News AI-Slop-Kritik an DLSS 5: Jensen Huang: „Spieler liegen mit ihrer Kritik völlig falsch“

jauns91 schrieb:
Statt dem Entwickler nun nur die Optionen zu geben "Intensität, Helligkeit, Kontrast. Farbton" könnte man doch den Entwickler in einem Prompt beschreiben lassen wie die Brüste von Lara Croft in Ultra HD genau ausgestaltet sein sollen (Größe, Form, Straffheit, BH / Sport BH / KeinBH).
Ich glaube nicht, dass das nachgelagerte AI Model mit einem Textprompt steuerbar ist, denn das wäre viel zu langsam und rechenaufwändig.
Eher wird man vermutlich zur Kontrolle Verfahren wie LoRAs verwenden müssen, um das Modell an den Art Style des Games anzupassen.

LikeHike schrieb:
Die Empörungswelle ist lächerlich und reißerisch, orientiert sich nur am Wort AI und nicht an der dahinterliegenden Technik.

Sie kommt sicher auch daher, dass AI Bildgenerierung durch den ganzen wirklichen miesen AI Slop in sozialen Netzwerken in Verruf gekommen ist.


Gute Bildmodelle sind mittlerweile durchaus in der Lage sehr guten Output zu produzieren, der nicht wie der ganze Müll aussieht. Nur sind die rechenaufwändig und teuer, zu teuer für den Müll auf TikTok und co.

Ich bin aber persönlich wirklich gespannt, wie man gute Qualität in Echtzeit hinbekommt, und habe da durchaus zweifel, dass die ersten Versionen wirklich überzeugen.

LikeHike schrieb:
Allein die von NVidia zur Verfügung gestellten Videos zeigen doch, dass sehr wohl der grafische Stil des Spiels getroffen wird.
Mein Eindruck ist da durchaus sehr gemischt. Bei Starfield, dass für echt mieses Rendering von Gesichtszüge bekannt ist, ist die Demo ein echter Gewinn, zumindest bei Sarah und Marika.

Bei Hogwarts ist es eher seltsam. Die RE Szenen sind ok.

Ich denke für vorgerenderte Zwischensequenzen, die z.B. mit aufwändiger Motion Capture von echten Schauspielern gemacht sind, wird Neural Rendering eher durchwachsene Ergebnisse bringen. Aber im normalen Spielfluss, wo js meist niedriger aufgelöste Gesichter mit reduzierter Mimik verwendet werden, kann es große Vorteile bringen. Mich stört bei heutigen AA Spielen immer, dass man ausserhalb der gerenderten Szenen plötzlich einen roboterhaften Zombie vor sich hat. Hier hoffe ich auf größere Konsistenz in Zukunft.
 
  • Gefällt mir
Reaktionen: Xes
Che-Tah schrieb:
Ob bewusst oder unbewusst...
Anders kann ich mir diese massiven Beißreflexe hier nicht erklären.
So im Allgemeinen und nicht bloß auf Computerbase begrenzt betrachtet würde ich eher sagen, dass viele von uns AI fatigue haben und dass deswegen die Reaktionen gegenüber DLSS5 eher negativ sind. AI als Werkzeug schön und gut, aber es wird zu oft für slop und enshittification/Verschlimmbesserung benutzt.
 
  • Gefällt mir
Reaktionen: adnigcx, Nihil Baxxter, Alphanerd und eine weitere Person
Haldi schrieb:
Ähhhhh okay.
Wie oft hast du schon versucht mit KI Bildgeneratoren ein Bild zu erstellen oder abzuändern genau so wie du dir das vorstellst?
Ich hab nach mehreren Stunden aufgegeben weil KI halt einfach macht was es will und nicht so wie ich will...

All diese wundervollen Bilder die man online sieht auf civit.ai oder so sehen super aus. Sind aber nicht exakt das was sich der Künstler vorher so ausgedacht hat.

Klar kann man jetzt sagen "skill issue".. Bin definitiv nicht der größte Held was das angeht. Aber ich bezweifle das AI JETZT bereits so weit ist exakt diese Resultate zu bringen die man sich so wünscht.
weil die von dir verwendeten KI-Bildgeneratoren ganz anders funktionieren
 
Nein, liegen sie nicht.
 
  • Gefällt mir
Reaktionen: JarlBallin
@usernamehere Der ganze Thread hier beweist, dass die Kritker falsch liegen. Alleine die Vergleiche mit Bildgeneratoren zeigen, dass die Leute nichtmal die Aussagen von Nvidia verstehen, geschweige denn verstehen, welche Möglichkeiten KI bietet und wie sie hier angewendet wird. Viele verstehen ja nichtmal, dass das kein Filter ist, der aufs fertige Bild angewendet wird. Da fängts ja schon an. Leseverständis 0. Technikverständnis 0. Es ist zum heulen, ganz ehrlich.
 
  • Gefällt mir
Reaktionen: Lazzarus, ev4x, Che-Tah und 3 andere
catch 22 schrieb:
für den Fall geht es mit einem "oder" in meinem Beitrag weiter...
Macht es nicht besser. Warum sollte er das tun? Warum sollte NVidia das tun? Es werden beide Märkte bedient, der eine ist aktuell atraktiver. Trotzdem werden ja Features für den Gaming Markt weiterentwickelt und geliefert, neue Consumer-Karten auf den Markt gebracht. Nur weil einem das Preisschild nicht gefällt muss man nicht so tun als würde NVidia einen Markt nicht bedienen. Tun sie.
 
  • Gefällt mir
Reaktionen: Kraeuterbutter
1773822795732.png

1773822828968.png
 
  • Gefällt mir
Reaktionen: adnigcx, Kadett_Pirx, JarlBallin und 8 andere
Serandi.87 schrieb:
Die 4090 war die erste und letzte Grafikkarte, die ich mir von euch gekauft habe! 👋🏻
{...}
Kann es kaum erwarten wieder zu AMD zurückzukehren (wenn sie denn endlich wieder vernünftige High End GPUs herstellen würden 😭🙏🏻)
hmm.. jetzt wäre wohl der Zeitpunkt deine 4090 zu verkaufen.. kriegst gut Geld dafür..

ah.. moment.. die 4090 ist die beste Wahl derzeit für dich? weil die anderen Hersteller für dich derzeit nix brauchbares haben.. ?
 
  • Gefällt mir
Reaktionen: _Sebu_ und 1776
PC Hardware macht einfach schon länger keinen Bock mehr. Ich denke das ich nicht der einzige bin der das fühlt.

Früher hat man um jedes bisschen mehr Leistung gekämpft.

Ich finde auch das sich das auf CB widerspiegelt vorallem was die News / Themen angeht.
 
  • Gefällt mir
Reaktionen: Tekwin, JarlBallin und Serandi.87
Die Technik ist sicher noch nicht ausgereift, aber eines ist sicher:

Die Katze ist aus dem Sack und die Technik wird nur noch besser werden.

DLSS 1 habe ich noch gemieden wie die Pest, heute meide ich Spiele ohne DLSS 4.

Ich bin davon überzeugt, dass Neural Rendering in 10 Jahren nicht mehr wegzudenken ist.
 
  • Gefällt mir
Reaktionen: mesohorny, Merit, WinstonSmith101 und 2 andere
Taxxor schrieb:
Das ist aber ja nicht passiert, es wurde genau so präsentiert wie es hier nochmal erklärt wurde, die Spieler habens halt einfach nicht gelesen.
… Es ist ja bekannt, dass der Mensch in der Regel erst mal alles brav liest und sich nicht aufregen möchte, sondern in der Regel sehr besonnen handelt und alles abwägt, sich alle Informationen holt und sich dann eine fundierte und wissenschaftliche Meinung bildet, die auf Fakten und Logik basiert.

Es ist halt die Frage, wie man damit umgeht und ob man das ganze dazu nutzt zu beschwichtigen, oder den "verbalen" Holzhammer rausholt. Nvidia hat sich für den Holzhammer entschieden. Man kann mit "Kritik" auch unterschiedlich umgehen und auch versuchen mal zu deeskalieren, statt zu eskalieren und einfach auch mal selbst Niveau zeigen.
Kraeuterbutter schrieb:
und "Realismus", viele Details etc. etc. ist ja das, wonach Gamer seit Jahrzehnten streben..
Ja und Nein, das Thema ist an der Stelle deutlich komplizierter.
Kraeuterbutter schrieb:
natürlich gibt es einen großen Anteil an Spieler die genau das wollen: mehr Richtung Fotorealismus, mehr Details, etc.
Gibt es den? Und jetzt bitte nicht falsch verstehen, ich weiß, dass ich jetzt provokant einsteige damit und das nicht die feine englische Art ist.

Und ich möchte an dieser Stelle deine Aussage sogar - ich bin heute richtig gemein - trennen in die Punkte "Richtung Fotorealismus" und eben "mehr Details". Ich bin mir bei beiden Punkten auch nicht sicher, ob es da einen großen Anteil, einen kleinen Anteil oder gar eine Mehrheit gibt, die entsprechende Erwartungen haben oder ob hier nicht auch eine verschobene Wahrnehmung auf Grund der Intensität der Kommunikation einer kleinen Gruppe kommt. Ich kenne Spieler, die einen "realistischen" Stil - also Fotorealismus - bevorzugen, in meinem direkten Umkreis ist das jedoch nicht die Mehrheit - wie sich auch immer wieder bei bestimmten Spielen zeigt, wenn da die Diskussion um die Grafik losgetreten wird.

Gerade beim Thema Fotorealismus würde ich persönlich weniger davon ausgehen, dass es da einen großen Anteil an Spielern gibt, die das wirklich wollen oder fordern. Wenn ich mir in den letzten Jahren da alles ansehe, dann geht es vielen Spielern darum, dass sie ein gutes Spiel bekommen, dass vernünftig aussieht, es muss allerdings eben nicht Fotorealistisch sein.

Beim Thema Details bin ich mir da auch unsicher und ich trenne das an der Stelle echt bewusst. Bei Details ist es eben auch immer so eine Sache und da ist es wie mit einem guten Buch, ein gutem Film und eben vielen anderen Sachen: Zu viele Details können erschlagen und die eigene Vorstellungskraft und Kreativität dämpfen. Genauso allerdings auch anregen.

Grafik ist bei Spielen ein Aspekt. Details und "Fotorealismus" sind dann Teilaspekte von Grafik. Sehe ich mir zum Beispiel Kena als Spiel an, dann hatte ich selten ein so schönes Spiel gesehen, weil da einfach alles passt. Art-Design ist ein wichtiger Punkt bei der Grafik, weil sie auch über die empfundene Ästhetik entscheidet.

Komplexes Thema und in dem Zusammenhang gilt halt auch: DLSS 5 kann ein richtig tolles Werkzeug werden, es kann allerdings auch ein Fluch werden. Aktuell ist es halt "Schrödingers DLSS 5". Ich bin gespannt, was kommt.
 
  • Gefällt mir
Reaktionen: adnigcx, Nihil Baxxter und Return2Burn
Azeron schrieb:
noch weniger Zeit und Geld in die Entwicklung und Optimierung eines Spiels zu stecken weil den Rest macht halt dann einfach DLSS 5.
na ist das nicht das was gewollt wird ?
die Firmen sollen Geld und Zeit nicht in Grafikfeatures stecken sondern in den Spielspaß...

wurde vorher so wo geschrieben, dass heutige Spiele zuviel Fokus auf Grafik und zuwenig auf Spielspaß/Spieldesign legen würden.

Na das wäre dann ja die Möglichkeit: weniger Geld für Grafikentwicklung verbraten (DLSS5 hilft hier aus),
dafür mehr in den Rest ;-)
 
BloodReaver87 schrieb:
Eher alles für sein Unternehmen.
Wäre schlimm, wenn es anders wäre - er macht bislang seinen Job kaufmännisch richtig.
Seit er an der Spitze steht, ist NVIDIA eines der wertvollsten Unternehmen, welches man nicht bestreiten kann.

Wie das moralisch bzw. für die Spiele Studios oder für die Spieler zu bewerten ist, wäre eine ganz andere Sache.
Nur weil ein paar Schreihälse johlen, welche vielleicht die Spiele noch nicht mal im Besitz haben, würde ich auch nichts ändern.

Ich bin auch kein Freund von KI, da es in den wenigsten Fällen steuerbar bleibt.
Aber grundsätzlich ist der Weg für digitale Güter nicht verkehrt.

Dass man für das Gezeigte aber gleich 2 x eine RTX 5090 benötigt ist für mich elementarer.
Denn das ist eher utopisch vom Anschaffungspreis und der Verfügbarkeit.
 
  • Gefällt mir
Reaktionen: BloodReaver87
Natürlich. Alle Kritiker liegen falsch. Aber das Beispiel was sie sich ausgesucht haben und was somit dem BESTEN entspricht was man zeigen konnte, sieht halt einfach wie "AI Slop" aus.
Wir haben hier also ähnlich wie bei MS & Co. die Differenz zwischen Manager, der "AI" UNBEDINGT verkaufen muss weil es das Überleben seiner Firma sichert und Realität wo das Ergebnis nicht so gut ist, wie es das Manager wahrhaben möchte in Kombination mit Kunden die kein "AI Slop" möchten.

Sollte der Backlash groß genug werden und es in der Praxis häufig genug nicht genutzt werden, dann könnte das Ding hier eventuell wieder verschwinden. Wenn es aber wie in der Letzten News hierzu von mir spekuliert dazu führt, dass wie bei der Spiele-Optimierung die Publisher deutlich weniger Arbeit bei Gesichtern haben... Dann wird es kommen, egal was die Spieler nun wollen oder nicht, einfach weil EA, Acti, Ubi & Co. hier immer den Weg der geringsten Ausgaben gehen werden. Gerade wie letztes mal geschrieben, wenn man den KERN ASPEKT Performance dank Upscaling und Framegen komplett mit Füßen tritt, darf man sich gerne vorstellen, wie Gesichter aussehen werden, wenn es nach Publishern geht.


LikeHike schrieb:
sachlichen Kritik zu tun sondern ist einfach eine blinde Abneigung gegen NVidia oder KI oder beidem zusammen.
[...] irrationale Ablehnung jeglichen technischen Fortschritts
Du meinst die "blinde Abnegung", dass das Beste was man mit der Technik zeigen konnte 1 zu 1 wie "AI Slop"/ Instagram Filter Wahnsinn aussieht? Yo, da liegt die gesamte Welt natürlich falsch und es sieht so gut aus, dass es keinen wirklich Massen-Backlash gab der groß genug war, dass selbst in Geld schwimmender CEO sich genötigt sah was zu sagen...

Fast so, als ob der "Fortschritt" den du meinst in vielen Bereichen keiner ist, sondern ein von einer Blase getriebener Wahnsinn, der mit der Realität, sei es finanziell, technisch oder logisch nichts zu tun hat. Und um dass hier noch mit nem Fakt zu unterlegen, letzter wissenschaftlicher Kenntnis-Stand z.B. was das Produktivitäts Plus durch "KI" angeht ist immer noch Null. "Fortschritt" kann man sowas also nicht wirklich bezeichnen.

Gerade der Punkt irrationale Ablehnung ist bei der aktuellen Daten-Lage nicht mal immer "irrational" sondern häufig konsequent: wie hat sich die Performance von Spielen noch entwickelt seit dem man das Trost-Pflaster Upscaling und Framegen drauf packen kann? Und wofür wird "KI" heute hauptsächlich verwendet? Gerade bei letzterem solltest du dringend mal googlen wie viel Slop aktuell generiert wird und das Internet wirklich stichwörtlich geflutet wird... Noch bevor wir bei den "KI" Produkten wie KI" Toaster, "KI" Bett, "KI" Reiskocher, "KI" Monitor, "KI" Waffeleisen etc. sind.


Mit solchen stark generalisierenden Aussagen wie du sie hier treibst sollte man sehr vorsichtig sein, da gerade die Technik Affinen Menschen sinnvollen Einsatz-Szenarien von "KI" definitiv nicht abgeneigt sein werden... Nur musst du diese halt auch mal präsentieren.
Leider ist vieles was "KI" wirklich sinnvoll und finanziell tragbar nutzt auch nicht Endkunden relevant.
Hautkrebs Erkennung z.B. sieht tatsächlich danach aus, dass es in Kombination mit einem Hautarzt sehr sinnvoll sein kann (sofern man nicht dunkle haut hat, dann geht die Fehler-Rate leider deutlich nach oben). Oder die Vorhersage von Molekülen für Medikamente. Oder das durchsuchen von den Peta-Bytes an astronomischen Daten oder oder oder

"KI" ist gekommen um zu bleiben. Aber dass heißt nicht, dass LLMs die finanziell nicht tragbar sind und technisch eine Sackgasse sind oder "KI" Slop ein sinnvoller Teil der technischen Entwicklung sind und genau da machen hier viele den Unterscheid, was man dem Lesen der Kommentare nach auch oft genau so entnehmen kann.


Statt hier aber immer negativ zu sein, könnte man auch mal positiv schreiben, dass erste Firmen die defacto Sackgasse LLMs verstanden haben und am nächsten großen Schritt von sinnvoller "KI" arbeiten: "World Models". Ohne die ist es quasi unmöglich aus den Daten der Eingaben effektiv Informationen zu ziehen, was dann auch dazu führt, dass eine LLM basierte "KI" Mrd. Datensätze brauch um irgendwie auch nur einen Hauch von Kohärenz zu präsentieren, während ein Geschöpf mit "World Model" aus nur eine Hand voll Versuche bereits selbiges erreichen könnte. Plus, die Verbesserung über mehr Daten wird ohne "World Models" natürlich auch sehr schnell sehr ausgeschöpft.

Natürlich muss sich bei den "World Models" noch zeigen, ob sie wirklich effektiver sind als LLMs oder ob es intern auch nur ein spezialisiertes LLM werden. Letzteres wäre nicht hilfreich, weil man dann wieder in die gleiche technische Sackgasse läuft wie ohnehin schon. Wenn diese aber sinnvoll werden... Und wir oben drauf noch rausfinden, wie man mehrere neuronale Netze unterschiedlicher Art effektiv miteinander vernetzen kann (was wir bisher leider noch nicht haben)... Dann könnte KI Wirklichkeit werden, die dann auch sinnvoller ist als die unendlich Ressourcen hungrigen Chinese Room Maschinen des 2020er.


Falls wer mehr wissen möchte, wieso World Models unabdingbar sind für die weiteren Fortschritte, Stanislas Dehaenes "How we learn" ist ein sehr guter Einstieg um zu verstehen wieso ein rein LLM basierter Ansatz von heute ausgeschöpft ist.
 
  • Gefällt mir
Reaktionen: adnigcx, Nihil Baxxter und Alphanerd
Halema schrieb:
Du lebst mal in einer Bubble. Nur 5,5% aller Steam-Nutzer im Februar nutzen eine 3080, 4080, 5080, 4090, 5090.
und das macht ja nix und ist gut so..
weil - und darauf bezog ich mich ja - nur alte Spiele Gute spiele sind.. (oder sein sollen) ;-)
neue Spiele bieten wenig Spielspaß und schlechtes Spieldesign...

somit ist das ganze gejammere hier im Thread unwichtig, weil das gute ist ja schon längst vorhanden.. es ist da draussen, im STeamstore/GOG verborgen..
bei vielen in ihrem Pale-of-shame bereits gekauft und abgelegt ;-)
 
Matziking schrieb:
und zweitens sehen die Figuren z.T. deutlich besser aus, besonders bei Starfield
Dann sollten sich die Entwickler vielleicht mehr Mühe geben anstatt dann alles auf AI auszulagern? Hier wird doch das Pferd von hinten aufgezäumt.

Im Fall von Starfield reden wir immerhin von einem AAA Spiel. Da zahlt man ja nicht wenig dafür und höhere Preise sowie Ingameshops in Vollpreistitel werden ja von Publishern immer damit argumentiert dass die Videospielentwicklung immer teurer wird aber wenn man durch solche Technologien noch weniger Aufwand betreiben und Geld reinstecken muss um ein Spiel zu entwickeln, ja dann frage ich mich, warum werden die Spiele dann nicht günstiger angeboten? Ohne Ingame-Shop und dafür dann mehr Wert auf andere Dinge gelegt wenn man schon Ressourcen bei der Darstellung spart?

Wird nicht passieren. Das einzige was sich der Publisher spart ist noch mehr Geld und Aufwand bei der Entwicklung was dann in die eigene Tasche wandert anstatt die Einsparungen an die Spieler weiterzugeben oder in andere Aspekte des Spiel zu stecken (Story, Gameplay, usw).
 
  • Gefällt mir
Reaktionen: LikeHike
Aaaah.. mal wieder der typische "Trust me, Bro"-slop der Tech-Milliardäre.
99% der Aussagen dieser Leute dient vorrangig dazu, die Finanzmärkte zu beeinflussen.
piccolo85 schrieb:
Ich bin davon überzeugt, dass Neural Rendering in 10 Jahren nicht mehr wegzudenken ist.
Ich kann mir vorstellen, dass in 10 Jahren der Gaming-Markt (und diverse andere Märkte) wie wir sie kennen, nicht mehr existiert.

Ob er dann "besser" ist? Who knows. Die Kunden werdens grössenteils hinnehmen, so wie jedes Jahr weltweit ne halbe Millionen Tote im Strassenverkehr völlig ignoriert werden oder Milliarden an Verluste durch eine E-Mail-Architektur, die einfach nur katastrophal schlecht ist, sodass sich Schadsoftware ganz easy verbreiten kann.

Die kritische Diskussion ist hier und anderswo sowieso Selbstbeschäftigung. Was auch OK ist. Daher schade, dass wir uns gegenseitig so angreifen (und ich bin ja Teil davon).
 
Merit schrieb:
Edit bzw auch hier passend:
"Never play fair in a game where others cheat"
Das ist so überhaupt nicht meine Philosophie.
simosh schrieb:
Nvidia verkauft da ihre Produkte und Anwendungsmöglichkeiten halt auch gut rein.
Wenn die Entwickler meinen sich verkaufen zu müssen brauchen sie mein Geld ja nicht mehr.
Ich hoffe das mit der Steam Machine in Zukunft mehr Entwicklunger bewusst auf AMD setzen.
Die Hoffnung stirbt zuletzt.
 
  • Gefällt mir
Reaktionen: Merit und Zensored
Zurück
Oben