Mal ganz ehrlich: Die von dir verlinkte Studie ist zwar spannend, hat mit der optischen Konsistenz von DLSS 5 aber so gut wie gar nichts zu tun. Hier werden Äpfel mit Kernreaktoren verglichen.ampre schrieb:Ok deine ChatGPT Antworten kannst du dir sparen.
Lies dir das hier durch und versuche zu vestehen: https://www.osti.gov/servlets/purl/2538294
Hier liegt dein Denkfehler:
In der Studie geht es um Floating-Point Non-Associativity. Das bedeutet: Wenn ein Computer Millionen von Zahlen in einer anderen Reihenfolge addiert, werden sie minimal anders gerundet. Das führt zu Abweichungen im Bereich von winzigen Nachkommastellen (Bits). Für Wissenschaftler, die Supercomputer für Klimamodelle oder Atomphysik nutzen, ist das wichtig.
Warum das für DLSS 5 egal ist: Diese winzigen Bit-Unterschiede führen nicht dazu, dass ein KI-Bild plötzlich „anders“ aussieht oder flackert. Das menschliche Auge kann diese mikroskopischen Rechenabweichungen in einem Frame mit 60 oder 120 FPS überhaupt nicht wahrnehmen.
DLSS 5 ist kein Würfelspiel. Du scheinst DLSS mit „Generativer KI“ (wie Midjourney) zu verwechseln, die aus Rauschen jedes Mal ein neues Bild generiert. DLSS 5 ist Neural Rendering. Es bekommt vom Spiel feste Daten: Bewegungsvektoren, Tiefenpuffer und Geometrie. Die KI „rät” also nicht, wo die Kante eines Hauses ist, das Spiel sagt es ihr ganz genau.
NVIDIA nutzt dafür massive temporale Filter für zeitliche Stabilität. Das heißt, das neue Bild wird immer mit den Daten der vorherigen Bilder abgeglichen, um genau diese „Inkonsistenz” zu verhindern.
Fazit: Die Studie beweist lediglich, dass Computer beim Rechnen minimal runden. Sie beweist jedoch nicht, dass ein KI-gestütztes Upsampling wie DLSS 5 instabil ist. Das System ist durch die Engine-Daten viel zu stark „eingemauert“, als dass diese Rechenungenauigkeiten ins Gewicht fallen würden.
Anstatt hier also ständig arrogant aufzutreten und anderen Unfähigkeit zu unterstellen, solltest du dich vielleicht vorher informieren, was du hier überhaupt postest.
Guter Punkt mit den Metadaten! Aber die KI braucht eine hochwertige Basis, um nicht zu halluzinieren.TomH22 schrieb:Das wird bei generativem KI Rendering nicht so sein. Da brauch man eher Vorgaben in Form von Metadaten für die Generierung, z.B. für die Generierung von Gesichtern ob die Person schwitzen soll oder nicht, wie alt die Person ist, ist sie müde und erschöpft, usw. Sicher wird man auch eine Form von "Zielaussehen" benötigen um ein konsistentes Ergebnis zu erreichen, und zu vermeiden, dass die Person in jeder Szene anders aussieht.
Selbst wenn die Metadaten der KI sagen, was sie tun soll, beispielsweise, dass jemand schwitzt, liefert die Rastergrafik der Engine immer noch das Skelett, also die exakten Tiefendaten, Kanten und Bewegungsvektoren. Je detaillierter diese Vorgabe aus der Engine ist, desto weniger muss die KI raten, wo genau der Schweiß hinfließen soll oder wie sich eine Falte im Gesicht beim Sprechen physikalisch korrekt bewegen soll.
Letztendlich ist es ein Zusammenspiel: Die Metadaten liefern den Kontext (das „Was”), aber die präzise Raster-Basis liefert die Struktur (das „Wo”), damit das Ergebnis konsistent und glaubwürdig bleibt.
Zuletzt bearbeitet: