News Kritik an DLSS: Nvidia verspricht schärfere Bilder und Updates für Spiele

kisser schrieb:
MIt Zauberei hat das nichts zu tun. Die "Bilddaten" sind ja da, nur in einem anderen "Format".
Die exakten bilddaten ja eben nicht. Hier hat ein Cluster halt was vorgerechnet und sagt über einen Algorithmus der gpu eben wie die das mit ihren Tensorkernen zuverwursten hat.
Das grenzt halt schon ein bisschen an die CSI - Zauberei ausm Fernsehen, bei der grob pixlige Überwachungsaufnhamen beim ranzoomen in deren Zentrale ein gestochen scharfes Bild erzeugen können. Genau das ist doch der Trick bei dlss, Bilddaten da zu erstellen wo keine gerendert wurden auf Basis von ähnlichen Bildern intelligent "verwurstet"
 
  • Gefällt mir
Reaktionen: onkel-foehn und Baal Netbeck
Karre schrieb:
Ich werd nie verstehen, wieso heutzutage alle mit einer 1080ti / 2080 / 2080ti / VII davon ausgehen, pauschal alle Regler nach rechts zu setzen, 4K Auflösung einstellen und dann erwarten 60+ FPS zu haben.

Aber Evtl. bin ich auch einfach zu alt, und weiß wie es ist, das Crysis nicht läuft.
Oder CS in 640x480 spielt um gute FÜS zu haben, weil die ATI Rage2 ne Möhre war ...

Bei den Preisen die mittlerweile für High-End verlangt werden, im Vergleich zu Früher, entseht bei vielen wohl die Illusion, dass es doch so sein müsste.

Naja egal. DLSS ist eine interessante Technik mit zu viel Aufwand (KI Berechnungen im Supercomputer) und Abhängigkeiten für das Resultat, mMn. Aber vielleicht wirds in ein paar ausgewählten Titeln die ersehnte Mehrperformance und Balkenlänge bringen um den Marketingeffekt zu haben den es braucht.
 
Mich betrifft die Thematik natürlich nicht mit meiner Karte, aber auch ich hätte ein Interesse an DLSS anstelle eines klassischen Downsamplings oder der Bildquali verschlechternden Anti Aliasings welche man in den Games vor findet.

Um mal ein krasses Beispiel zu nehmen wäre hier Apex Legends, das Spiel flimmert extrem auf 1080p und das integrierte TSAA führt zu einer Spieler benachteiligenden Unschärfe samt Ghosting bei z.B. den Metalbars an den Fenstern von Gebäuden - ein normales Downsampling von sagen wir mal 2880x1620 würde viel zu viel Leistung fressen, ein natives WQHD frisst ebenfalls zu viel - dort wäre doch DLSS brauchbar, sofern es natürlich ein anständiges Bild liefert ohne einem die Leistung weg zu ziehen.

Aber genau wie bei HDR sind da wieder X Tausend Hürden im Weg, man muss es unterstützen vom Spiel aus, es muss "trainiert" und optimiert werden und am Ende sitzt man dann doch wieder da und zieht die ganze Zeit Vergleiche ohne überhaupt noch das Spiel spielen zu können, bis man es dann irgendwann einfach ausschaltet und auch nicht mehr benutzt, weil es keine eindeutig besseren Ergebnisse hervorbringt.

Wenn man sich den Artikel mal auf der Zunge vergehen lässt, denkt man schon mal kurz darüber nach ob DLSS nicht ein kurzzeitiges Ding sein wird bis es Grafikkarten mit anständiger 4K Leistung gibt (in 10-20 Jahren vllt?).
Ich sitz letztlich auch nur meistens auf 1080p, weil leistungsfähige, für meine Ansprüche genügende, Karten erst ab 1100€ starten und dann grad so mit dem Brecheisen WQHD bedienen können.


Genau genommen habe ich dann für "wenig überzeugende Bilder" auch gar keine Lust mehr eine extrem teure Grafikkarte zu kaufen und ziehe lieber alle Balken auf Low und erst wenn dort dann auch zu wenig Leistung kommt, kaufe ich dann mit Sicherheit eine Neue.

Und ganz am Ende gab es schon so viel Kram der gekommen ist, aber bis Heute nicht von mir benutzt wird - FXAA, HDR, SSAO,HBAO (+), HDAO... das ist Zeug von vor vielen Jahren, der bis Heute ebenfalls zuviel Leistung kostet, den Spieler benachteiligt oder nicht gänzlich überzeugt.

Gerade auch in Multiplayer Shootern wo die Spieler freie Wahl bei der Grafik haben kann nichts von den Kram überzeugen und wird nicht benutzt weil es oftmals zu Nachteilen führt, die Andere nicht haben könnten.

Ich stelle meistens auch die Grafik hoch, aber unter gewissen Bedingungen - 1. Performance für uneingeschränkt flüssige Steuerung und 2. Sichtbarkeit sofern von Relevanz.
Das ist bei Auflösungen und Techniken von vor 10 Jahren nicht mal gewährleistet und das ist es auch was die RTX Karten für mich persönlich so höchst unattraktiv gestalten, dass der Wechsel von 1080 auf Vega 64 sogar sinnvoller erscheint, weil ein paar Softwarefehler vorhanden sind.

Habe natürlich ganz andere Prioritäten als die Meisten, aber bin bestimmt nicht alleine mit diesen Anliegen.

Nichts destotrotz besteht bei mir auch Interesse an Raytracing und DLSS, aber es muss auf ganzer Linie überzeugen ohne wenn und aber, sonst kann man auch einfach mal die "Bobby Version" von der 2080 (Ti) raus hauen die weniger kostet, es dafür aber nicht kann.

Ich sehs momentan einfach nicht ein, 800+€ für ne 2080 und 1100+ € für ne Ti zu blechen und gerade mal die Ti wäre Leistungsfähig genug um in nicht anspruchsvollen Games entsprechende FPS zu liefern ohne dabei alle Details abwürgen zu müssen, für Raytracing ist immer noch zu wenig Leistung da >.<
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: paulemannsen und onkel-foehn
Toll ist das für Full HD Nutzer natürlich nicht.

Für mich ist DLSS gerade bei der MP Shooter Generation eindeutig Perlen vor die Säue geworfen.
Die spielen auch noch in 10 Jahren alles in FullHD und die meisten legen nur auf ihr übliches über 100 Frames-Gehabe wert.

Ich hoffe diese Feature weitet man auch auf Rollenspiele aus, welche meist langsamer bzw. genussvoller gespielt werden und auch eine andere Zielgruppe für Hardware Budgetfokussierung ansprechen.
 
Matschtexturen und dafür lange balken braucht man nicht wirklich.
Wenn das bei amd dann mit DirectML auch so ist gute nacht.
 
Prinzipiell ist die Technik ja genial. Der Mensch macht es doch nicht anders.
Laut diesem Artikel sind es ungefähr 10MBit/s die vom Auge kommen.
(https://www.eurekalert.org/pub_releases/2006-07/uops-prc072606.php)

Zum Vergleich: Full HD mit 60Hz sind bereits rund 3000Mbit/s.
Im Prinzip ist die Welt nur "scharf" weil das Gehirn es einem so berechnet.

Das Problem sehe ich eher in der Art und Weise die aktuell verwendet wird: es wird nicht beim Anwender gelernt, sondern zentral bei Nvidia. Und die Konseqenzen daraus sind deutlich. Es funktioniert damit nur:
  • bei Spielen die Nvidia für wichtig hält
  • für Generationen von Grafikkarten für die gelernt wird
  • für bestimmte Treiber/Patchversionen

Oder anders ausgedrückt: bei gerade aktuellen Grafikkarten in Kombination mit gerade aktuellen Spielen.

Nun kann man argumentieren, das in ein paar Jahren die Grafikkarten eh schnell genug sind und man die Technik deswegen nicht mehr braucht. Die letzten Jahren sprechen da aber eher dagegen, die Zyklen werden immer länger und die Sprünge pro Jahr damit kleiner.

Ich warte also auf die Generation, die sich selbst trainieren kann. Möglich wäre das durchaus, z.b. indem in jedem Frame ein Teilbereich des Bildes in höherer Auflösung gerechnet wird, sodass man kaum Performance verliert.
Das nächste mal wenn man die Stelle betrachtet, einem aber sozusagen die höhere Auflösung an dieser Stelle "vorgegaukelt" wird.
 
So langsam geht mir ein Licht auf warum es weder Spiele mit RTX noch mit DLSS zum Turing Release und lange danach nicht gab. Was wurde nicht alles gesagt auf der berühmten Lederjackenpräsentation. We love Gigarays, it just works und dergleichen mehr. Dabei hat man nur gehofft, dass die Leute Nvidia wieder blind vertrauen und 50% mehr für "Features" zahlen die sich im Nachhinein als Flop heraustellen. zum Glück haben viele den Braten gerochen und Nvidia hat ein massives Glaubwürdigkeitsproblem.
 
  • Gefällt mir
Reaktionen: paulemannsen, onkel-foehn, s0UL1 und 3 andere
iNFECTED_pHILZ schrieb:
Die exakten bilddaten ja eben nicht. Hier hat ein Cluster halt was vorgerechnet und sagt über einen Algorithmus der gpu eben wie die das mit ihren Tensorkernen zuverwursten hat.

Und wo ist da das Problem dabei? Die Daten werden eben rekonstruiert über den Algorithmus und das, was der Cluster berechnet hat.
 
Baal Netbeck schrieb:
Nvidia hätte den Mund nicht so voll nehmen sollen......bessere Optik bei mehr FPS .....offenbar nur heiße Luft.
Das haben sie nur für DLSSx2 versprochen.

DLSS liefert eine Bildqualität, die zwischen der nativ berechneten Bildern und der Zielauflösung liegt.

Beweis:
https://www.computerbase.de/forum/t...uer-den-grafikbenchmark.1853469/post-22265151
Es funktioniert und hat schon seinen nutzen. Nur braucht halt auch das Training vor allem eins- Zeit.

Grüße
Zero
 
Zuletzt bearbeitet:
Zumindest gleichbleibende Optik haben sie in Aussicht gestellt und das mit 60FPS ... hat man wohl "vergessen" zu erwähnen.
 
  • Gefällt mir
Reaktionen: Smartcom5
kisser schrieb:
Und wo ist da das Problem dabei? Die Daten werden eben rekonstruiert über den Algorithmus und das, was der Cluster berechnet hat.
Gibt kein Problem. Also jain.. Nvidia kriegt es nicht hin ohne das Bild weichzzspülen.
Aber per se wie gesagt ne interessante Sache
 
  • Gefällt mir
Reaktionen: onkel-foehn
iNFECTED_pHILZ schrieb:
Nvidia kriegt es nicht hin ohne das Bild weichzzspülen.

Das wird die Zukunft erst zeigen, darum geht es doch in der Meldung.
Wieso wird eigentlich erwartet, dass gänzlich neue Techniken auf Anhieb perfekt funktionieren?
KI und DL sind adaptive Techniken.
 
kisser schrieb:
Das wird die Zukunft erst zeigen, darum geht es doch in der Meldung.
Wieso wird eigentlich erwartet, dass gänzlich neue Techniken auf Anhieb perfekt funktionieren?
KI und DL sind adaptive Techniken.
Wer vor einem halben Jahr in die Masse ruft "it just works" darf sich nicht wundern wenn man jetzt auch Resultate sehen will. Stand jetzt ist es eben eher gewollt und nicht gekonnt.
Aber ich bin ja bei dir, interessant ist es allemal. Die Zukunft wird da noch tolle Sachen bieten
 
  • Gefällt mir
Reaktionen: Baal Netbeck
eax1990 schrieb:
Apex Legends, das Spiel flimmert extrem auf 1080p und das integrierte TSAA führt zu einer Spieler benachteiligenden Unschärfe samt Ghosting
Que?

Ich hab nun doch schon ein paar Runden Apex hinter mir und mir ist weder Geflimmer noch eine Unschärfe aufgefallen. Das wirklich einzige was irgendwo flimmert bei mir sind teilweise Objekte wie Bäume in der Distanz, einfach wegen dem Object rendering bzw. wegen der draw distance. Aber ansonsten? Nix.
 
kisser schrieb:
Das wird die Zukunft erst zeigen, darum geht es doch in der Meldung.
Wieso wird eigentlich erwartet, dass gänzlich neue Techniken auf Anhieb perfekt funktionieren?
KI und DL sind adaptive Techniken.
NV Launch der 2000 er Serie gesehen , CEO Jensen äußerte " It s just works " , OK , wie gut es funktioniert hat er nicht dabeigesagt ... :evillol:
 
  • Gefällt mir
Reaktionen: onkel-foehn, Baal Netbeck und s0UL1
Sehe das DLSS auch als Marketing-Gag.
Bei Full-HD braucht es keine Tricks, das kann jede halbwegs aktuelle Karte stemmen. Besser auf ultra Details verzichten.
Bei 4K ist der grosse Vorteil, dass gerade keine Kantenglättung mehr notwenig ist, da genug Pixel vorhanden sind. Lediglich gegen Flimmern braucht es noch FXAA. Ansonsten rendert man lieber in etwas geringerer Auflösung.
Ich deaktivere für ein scharfes Bild immer Motion blur und Deep depth. Nebenbei spart das auch ordentlich Leistung. Ist doch paradox, zuerst Kantenglättung und hohe Details aktivieren bei 4K, nur damit ein Tiefenfilter alles matschig macht. ;)
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Dai6oro schrieb:
So langsam geht mir ein Licht auf warum es weder Spiele mit RTX noch mit DLSS zum Turing Release und lange danach nicht gab. Was wurde nicht alles gesagt auf der berühmten Lederjackenpräsentation. We love Gigarays, it just works und dergleichen mehr. Dabei hat man nur gehofft, dass die Leute Nvidia wieder blind vertrauen und 50% mehr für "Features" zahlen die sich im Nachhinein als Flop heraustellen. zum Glück haben viele den Braten gerochen und Nvidia hat ein massives Glaubwürdigkeitsproblem.

Solange es bei den falschen Zielgruppe in Spielen gesetzt wird ist es bestimmt noch überflüssig.

Bei Full HD Spielern und Framesjägern (MP Shooter Gamer, die meistens ihre Hardware über 2-3 Generationen lang haben) hat dieses neue Feature aus teureren Grafikkarten sicherlich nichts zu suchen, denn wie oben von mir schon gesagt werden damit Perlen vor die Säue geworfen. Ob das ein Flop ist wird sich noch weisen wenn andere Spiele supportet werden.
 
Zuletzt bearbeitet:
iNFECTED_pHILZ schrieb:
Wer vor einem halben Jahr in die Masse ruft "it just works" darf sich nicht wundern wenn man jetzt auch Resultate sehen will. Stand jetzt ist es eben eher gewollt und nicht gekonnt.
Aber ich bin ja bei dir, interessant ist es allemal. Die Zukunft wird da noch tolle Sachen bieten
Die Spiegelungen funktionieren- Die GI von Metro funktioniert.
Wo ist also das Problem beim Ausspruch:"It just works?"

Es findet ein Technologiewechsel statt- Ich frag mich was einige Leute hier immer erwarten, oder ob wirklich alle hier erst seit 9 Jahren, in dem es kaum Bewegung mehr im IT Sektor /Grafiksektor gegeben hat, ihr Computerhobby betreiben.

Grüße
Zero
 
  • Gefällt mir
Reaktionen: kisser
ZeroZerp schrieb:
Es funktioniert und hat schon seinen nutzen. Nur braucht halt auch das Training vor allem eins- Zeit.

Grüße
Zero
Zeit ... das ist gut. Wusste schon der alte Einstein, dass alles relativ ist. Vor allem dann, wenn Nvidia schon das Geld der Leute für die Technik im Sack hat, aber selbst noch am basteln ist. DLSS ist zwar insgesamt eine interessante Technik aber mit ständiger Pflege verbunden und wir wissen, wie schnell Nvidia solche Eisen zu Gunsten anderer fallen lässt ...

Sie haben halt den Mund sehr voll genommen und Erwartungen in den Präsentationen aufkommen lassen, die momentan noch nicht, vielleicht aber zukünftig erfüllt werden können. Da darf man sich aber auch nicht wundern, wenn die Leute, die ihnen für diesen technologischen Wandel bereits das Geld überwiesen haben, ein aufgereiftes Produkt sehen möchten.
 
  • Gefällt mir
Reaktionen: onkel-foehn
Zurück
Oben