Kann es sein, dass du nur das Training aber nicht Inferenz als KI ansiehst? Du schreibst ja selbst, dass das Modell angewandt wird. Gerade das Anwenden eines KI-Modells zeigt doch ganz eindeutig, dass KI verwendet wird.ElliotAlderson schrieb:DLSS selbst nutzt keine KI zur Rekonstruktion. Lediglich das Modell/der Algorithmus wird mittels KI erstellt/generiert. Die Karte bzw. der Treiber wendet das einfach nur noch an.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Bericht Leser-Blindtest 2026: Die Community sieht DLSS 4.5 klar vor FSR und Nativ + TAA
Grestorn schrieb:Oh Mann.
Dass man intern einen Algorithmus, auch einen AI-basierten, zu allem Möglichen verwenden kann, zum Berechnen von internen Daten und Tabellen, z.B., das kommt dir nicht in den Sinn?
Nur mal als kleinen Kontext:
Ich bin Software-Entwickler, seit 40 Jahren im Business. Ein ganz klein wenig verstehe ich schon von der Materie. Auch wenn ich jetzt nicht DLSS im Detail kenne, so kann ich schon einige Dinge logisch aufgrund der Materialien, die wir kennen (Wikipedia, andere Artikel), ableiten.
Euer Vertrauen in die Magie von AI bzw. DLSS/FSR ist wirklich erstaunlich.
Ergänzung ()
Wenn ich darauf klicke, krieg ich das Inhaltsverzeichnis der ganzen Doku. Sollte da ein spezielles Kapitel verlinkt sein? Oder hast Du das Posting editiert?
Soweit ich es verstehe:
Das DLSS-Model wurde trainiert, indem man low-res und high-res Bilder auf Basis eines Bildes zur Verfügung stellt. Das daraus entstehende Model läuft auf der GPU. Dann gibt man die gerenderten low-res Bilder und Motion Vektoren als Daten in den das Model und hinten kommt dann das Ergebnis diverser Matrizenrechnungen raus, welche super schnell auf den Tensor Kernen laufen. Dieses Ergebnis ist halt ein neues Bild in höherer Auflösung. So wie es gelernt wurde.
DLSS rendert kein neues Bild im klassischen Sinne.
Ja, aber nicht, dass mit der KI tatsächlich Bilder generiert werden.adfsrg schrieb:Kann es sein, dass du nur das Training aber nicht Inferenz als KI ansiehst? Du schreibst ja selbst, dass das Modell angewandt wird. Gerade das Anwenden eines KI-Modells zeigt doch ganz eindeutig, dass KI verwendet wird.
"KI verwenden" kann auf x-verschiedenen Ebenen verstanden werden.
Nein darum geht es nicht. Es geht darum, dass Spiele ganz massive Einschnitte in den Dingen die sauber auf dem Bildschirm dargestellt werden können daraus Resultieren. Wir müssten in Sachen Objektdichte alles ganz massiv zurückfahren. Wären z.T. deutlich mehr limitiert darin wie wir Sachen ausleuchten. Ich glaube nicht, dass viele Leute darüber glücklich wären.adfsrg schrieb:Genau darum geht es doch: Die Bildfehler durch temporale Verfahren sollte man wegschmeißen und stattdessen lieber echte Transparenz implementieren
Übrigens was meinst du mit "Echter Transparenz"? Im Sinne von, kein Blackbox Algorithmus der sich überlegt wie das Aussehen soll? Oder was ist damit gemeint?
Nein, das ist total veraltet und hat so m.E. noch nie in dieser Form gestimmt.Bregor schrieb:Soweit ich es verstehe:
Das DLSS-Model wurde trainiert, indem man low-res und high-res Bilder auf Basis eines Bildes zur Verfügung stellt.
DLSS1 wurde in der Tat auf die Spiele trainiert, die es eingesetzt haben. Aber auch da vermutlich ganz anders, als man hier so denkt.
Seit DLSS 2 wird nicht mehr konkret auf die Spiele trainiert. Das geht bei der Menge an Spielen auch gar nicht mehr. Auch die Tatsache, dass man DLSS in Spiele integrieren kann (über Mods), die gar nicht dafür vorgesehen waren, sollte da recht eindeutig sein.
- Registriert
- Okt. 2023
- Beiträge
- 4.582
Ich finde e erstaunlich, dass die Leser sich so klar für DLSS entschieden haben, obwohl das ein Vergleich mit dem Quality Modus war. Im Performance Modus der ja zumindest bei DLSS klar besser ist als Native wäre der Unterschied ergo noch größer ausgefallen.Fujiyama schrieb:Ich sehe fast kein unterschied, meistens und nur dann wenn man genau hinschaut und es still ist.
Dann kann man mit Performance oder gar Ultra Performance die Mehrleistung einfach mitnehmen. Der Unterschied bei UP oder P ist zwischen den Techniken meines Erachtens schon recht groß.Fujiyama schrieb:Wenn man spielt und in Bewegung ist fällt es nicht auf
- Registriert
- Sep. 2006
- Beiträge
- 10.880
Meine persönlicher Treffer fielen wiefolgt aus:
2x kein Unterschied
2x nativ
2x FSR
Welches Fazit ich daraus ziehen soll, weiß ich noch nicht.
2x kein Unterschied
2x nativ
2x FSR
Welches Fazit ich daraus ziehen soll, weiß ich noch nicht.
longusnickus
Lieutenant
- Registriert
- Dez. 2019
- Beiträge
- 776
ich frage mich, ob hier wirklich nach bildqualität abgestimmt wurde, oder einfach nur nach "wer erkennt DLSS"
weil das war in den meisten fällen wirklich einfach.
zB bei Horizon Forbidden West sticht das flimmern des holzbodens sehr stark heraus.
außerdem wäre mehrfachantwort, oder bewertungssystem mMn aussagekräftiger
um bei Horizon Forbidden West zu bleiben. auch FSR macht in dieser szene einen sehr guten job und das bild ist ruhiger
DLSS 10 punkte
FSR 8
nativ 5
oder so
ist ein ruhiges bild wichtiger als andere bildeigenschaften? zB verwaschene texturen
weil das war in den meisten fällen wirklich einfach.
zB bei Horizon Forbidden West sticht das flimmern des holzbodens sehr stark heraus.
außerdem wäre mehrfachantwort, oder bewertungssystem mMn aussagekräftiger
um bei Horizon Forbidden West zu bleiben. auch FSR macht in dieser szene einen sehr guten job und das bild ist ruhiger
DLSS 10 punkte
FSR 8
nativ 5
oder so
ist ein ruhiges bild wichtiger als andere bildeigenschaften? zB verwaschene texturen
Grestorn schrieb:Nein, das ist total veraltet und hat so m.E. noch nie in dieser Form gestimmt.
DLSS1 wurde in der Tat auf die Spiele trainiert, die es eingesetzt haben. Aber auch da vermutlich ganz anders, als man hier so denkt.
Seit DLSS 2 wird nicht mehr konkret auf die Spiele trainiert. Das geht bei der Menge an Spielen auch gar nicht mehr. Auch die Tatsache, dass man DLSS in Spiele integrieren kann (über Mods), die gar nicht dafür vorgesehen waren, sollte da recht eindeutig sein.
Ich spreche ja auch nicht von "direkt einem Spiel", sondern verallgemeinert wurde dem Model beigebracht, was es zu tun hat. Wie sonst soll es funktionieren? Es bekommt mehrere Bilder und Motion Daten und so und erzeugt daraus ein neues Bild in höherer Auflösung. Es rendert kein neues Bild in höherer Auflösung, sonst würde ja die Renderpipeline statt der Tensor Cores benutzt werden.
MalWiederIch
Commander
- Registriert
- März 2023
- Beiträge
- 2.675
Bei geringerem Anspruch kann man jedenfalls gerade aktuell viel Geld sparen …TheManneken schrieb:Meine persönlicher Treffer fielen wiefolgt aus:
2x kein Unterschied
2x nativ
2x FSR
Welches Fazit ich daraus ziehen soll, weiß ich noch nicht.![]()
- Registriert
- Sep. 2006
- Beiträge
- 10.880
@MalWiederIch
Mein Ansprüche sind nicht gering, aber meine Augen sind eben meine Augen und sie sind nachgewiesen nicht schlecht. Aber mein letzter Augenarztbesuch ist auch schon paar Tage her.
Mein Ansprüche sind nicht gering, aber meine Augen sind eben meine Augen und sie sind nachgewiesen nicht schlecht. Aber mein letzter Augenarztbesuch ist auch schon paar Tage her.
Ich ebenso.Grestorn schrieb:Ich bin Software-Entwickler
Ja, ganz genauso wirkt es auch. Du benutzt zwar Worte, die in diesem Kontext oft sinnvoll sind, nur wie du sie zu Sätzen zusammenstellst passt halt nicht, weil sie inhaltlich nicht korrekt sind.Grestorn schrieb:Ein ganz klein wenig verstehe ich schon von der Materie.
Doch, RR arbeitet so.Grestorn schrieb:Dass man intern einen Algorithmus, auch einen AI-basierten, zu allem Möglichen verwenden kann, zum Berechnen von internen Daten und Tabellen, z.B., das kommt dir nicht in den Sinn?
Ergänzung ()
Nun ja, das Verwenden eines KI-Modells, genauer eines Transformers, um ein Bild zu erzeugen (darunter fällt auch rekonstruieren), kann man eigentlich nur als generative KI verstehen. Es ist eine KI, die ein Bild erzeugt.Grestorn schrieb:"KI verwenden" kann auf x-verschiedenen Ebenen verstanden werden.
Ist halt Ansichtssache, ich empfinde das "pixelige", "rohe" Bild eben als schärfer, als das "verschwommene", "geglättete" Bild durch TAA, DLSS etc.jo0 schrieb:FXAA und scharf? FXAA hat auch immer zu Unschärfe geführt und ich habe es gehasst.
Nighteye
Lt. Commander
- Registriert
- Okt. 2013
- Beiträge
- 1.540
ElliotAlderson schrieb:Ich habe anscheinend, bis auf einmal, immer für DLSS gestimmt.
LucLeto schrieb:Sehe ich genau so.
Fujiyama schrieb:Ich sehe fast kein unterschied
rollmoped schrieb:Ich habe es gerade mit meinen Ergebnissen verglichen und FSR4 hat mir am häufigsten gefallen (3x).
RaptorTP schrieb:Nur bei Satisfactory hab ich DLSS 4.5 gewählt.
Der Rest war alles nativ oder FSR.
BeowulfAgate schrieb:Als zufriedener Nutzer von FSR4 habe ich kein einziges Mal für FSR gestimmt sondern für DLSS 4.5
eRacoon schrieb:3x DLSS, 2x FSR, 0x Nativ
Termy schrieb:Bei mir kam tatsächlich meist FSR raus![]()
Bei mir kam nur FSR raus. Kein einziges mal DLSS oder Nativ. Seltsam.S.Evans schrieb:3x nativ und 3x FSR, bin wohl nicht so vom Testsieger überzeugt 😅
Wie da trainiert wird, weiß keiner. Ich denke, es wird schon trainiert, damit Okklusion erkannt wird und wie durch Bewegung neu ins Bild kommende Bereiche am besten so rekonstruiert werden können, dass trotz mangelnder Details in den bislang unsichtbaren Bereichen das möglichst wenig auffällt.Bregor schrieb:Ich spreche ja auch nicht von "direkt einem Spiel", sondern verallgemeinert wurde dem Model beigebracht, was es zu tun hat. Wie sonst soll es funktionieren? Es bekommt mehrere Bilder und Motion Daten und so und erzeugt daraus ein neues Bild in höherer Auflösung. Es rendert kein neues Bild in höherer Auflösung, sonst würde ja die Renderpipeline statt der Tensor Cores benutzt werden.
Und auch wie mit Motion-Vektoren am effizientesten umzugehen ist, wie sich bewegende Objekte ohne Motion-Vektoren erkannt werden (Partikel z.B.) und richtig behandelt werden, usw.
All so was.
Aber eben keine konkreten Bilddaten. Das kann ich mir so einfach nicht vorstellen. Das Netz würde schlicht explodieren.
Das ist es, was ich meine. Einige hier haben eine viel zu simple Vorstellung von dem Verfahren.
So nach dem Motto "Lernt der AI mal wie Spiele aussehen, dann wird sie schon das Richtige generieren!"
(nein, das ist nicht auf Dich bezogen!)
MalWiederIch
Commander
- Registriert
- März 2023
- Beiträge
- 2.675
Aktuell von einer 9070 XT zu einer 5070 Ti? Auf keinen Fall.Medcha schrieb:Toller Pokal! Rechtfertigt nur den Preisaufschlag bei Nvidia nicht. Am Ende bleibt's beim Alten für mich: AMD
Ist aber nicht der reguläre Preisabstand - bis auf die letzten paar Tage lagen ja keine 100€ zwischen den beiden, während die 5070 Ti 8% im CB Leistungsrating vorne liegt:
Wir haben aktuell Februar - im Januar, gerade einmal letzten Monat, lag die 5070 Ti bei 799€ bei Idealo …
Nun gibt es 2 Möglichkeiten:
1. Sobald der günstig eingekaufte VRAM ausgeht steigen auch die 9070 XT stark im Preis.
2. Beide sinken wieder auf das alte Preisniveau.
BestimmtNighteye schrieb:Bei mir kam nur FSR raus. Kein einziges mal DLSS oder Nativ. Seltsam.
Das allgemeine Ergebnis ist jedenfalls recht eindeutig - selbst nativ liegt mit nahezu doppelt so vielen Stimmen deutlich (!) dort vor FSR:
„Seltsam“
Apropos - warum sind hier Stimmabgaben zu nicht-politischen Themen eigentlich überhaupt anonym?
Wäre doch interessant, wie das Ergebnis mancher Nutzer hier wirklich ausfällt
Zuletzt bearbeitet:
TheInvisible
Commander
- Registriert
- Jan. 2022
- Beiträge
- 2.207
Verstehe nicht warum du da so rumreitest auf die Begriflichkeiten, ist doch im Prinzip völlig schnurz. Es werden Bildinformationen generiert, ob du das Bilder oder sonst irgendwie nennst im Endeffekt völlig egalGrestorn schrieb:Ja, aber nicht, dass mit der KI tatsächlich Bilder generiert werden.
FXAA kümmert sich halt um ein paar Treppeneffekte und glättet diese, braucht dafür nicht viel Rechenleistung. Und so viel Details gehen da nicht verloren. Falls möglich hab ich aber auch meist komplett Nativ verwendet und alle Post Processing Sachen ausgemacht.Xes schrieb:Ironie? Die größte Kritik an FXAA war doch, dass das Bild komplett verschwommen weichgezeichnet wird statt nur die Kanten zu glätten. Wenn es um feine Details und Texturschärfe geht sind die modernen Verfahren meilen
Naja, weil halt so viele im Kopf haben "Bei DLSS generiert eine AI Bilder" und das dann gleichsetzen mit "DLSS erfindet Details und nur deswegen sieht es scheinbar schärfer aus".TheInvisible schrieb:Verstehe nicht warum du da so rumreitest auf die Begriflichkeiten, ist doch im Prinzip völlig schnurz. Es werden Bildinformationen generiert, ob du das Bilder oder sonst irgendwie nennst im Endeffekt völlig egal
Stimmt noch immer.Grestorn schrieb:Nein, das ist total veraltet und hat so m.E. noch nie in dieser Form gestimmt.
Ähnliche Themen
- Antworten
- 740
- Aufrufe
- 40.529
- Antworten
- 487
- Aufrufe
- 48.691
- Antworten
- 251
- Aufrufe
- 26.644
- Antworten
- 295
- Aufrufe
- 55.582
- Antworten
- 283
- Aufrufe
- 89.609