Notiz Nvidia DLSS 2.0: Vier zusätzliche Spiele unterstützen KI-Upsampling

DLSS wird vor allem die kleineren GPUs, wie die 3060ti, und darunter, massiv aufwerten.

Aber wie es schon viele vor mir hier geschrieben haben, wird DLSS erst dann interessant werden wenn alle neuen Games dass unterstützen. Und AMD sollte das schnellst möglich mit umsetzten.

offtopic: Übrigens würde der Versand meiner PS5 gerade bestätigt. Ich freue mich wie verrückt eine abbekommen zu haben, und werde morgen gespannt auf den Postboten warten. ^^
 
klappt das auch in jeder Auflösung gleich gut?
 
Ja natürlich ist Nvidia immer gerne "innovativ" die eigenen Features zu hypen, aber sie verhalten sich einfach nicht offen genug und kochen meistens ihre eigen Suppe.

Proprietär altert halt schlecht und ist meistens nachteilig für die Kunden und die Software (bzw. den Entwicklern). Profitieren werden hauptsächlich die Nvidia-Auktionäre...
 
Wird Cyberpunk eigentlich DLSS 2.0 unterstützen?
 
Also auf allen 4 gezeigten Benchmark Ergebnissen liegt die 2080 Ti vor der 3070.
Letztgenannte ist somit auf 2080 Super Niveau und kosten mit 650 - 700 € gleich.
Fortschritt sieht für mich anders aus !
Auch wenn uns nVidia weiß machen will, dass es sich ja jetzt um ein XX70´er Leistung handelt.
Bringt halt nur wenig, wenn diese NICHT günstiger ist ...

MfG Föhn.
 
  • Gefällt mir
Reaktionen: GerryB, MiniM3 und jdiv
Schalk666 schrieb:
Profitieren werden hauptsächlich die Nvidia-Auktionäre...

Da hab ich ja Glück... Aber davon mal abgesehen, ich mag Innovationen. Und da spiel es für mich keine Rolle wer die anschiebt. AMD sieht ein gutes Feature und macht es nach, Nvidia sieht ein gutes Feature und macht es nach. Ist doch super.

Ich habe in der Vergangenheit nur das Gefühl, dass Nvidia da mehr schiebt. Sie sind halt auch auf der Software-Seite sehr stark! Sich das immer mit z.B. G-Sync und Co. extra bezahlen zu lassen ist natürlich Geschmackssache aber mal ehrlich, dass gibt es doch in so vielen Branchen. Und niemand ist gezwungen solche Dinge gleich zu kaufen. G-Sync ist ja ein gutes Beispiel. Jetzt kannste auch Free-Sync mit Nvidia Karten machen. Super!

In meinen Augen normale Prozesse die sich im laufe der Zeit relativieren. Und davon auszugehen, das Unternehmen wie Nvidia, AND oder Intel Samaritas wäre ist ja auch Quatsch. Auch wenn sich das manche bei AMD einbilden. Wären sie in Nvidias Position, würden sie genau das gleiche machen. Traurig aber wahr!

Als Konsument kann man da nur versuchen eine kühlen Kopf zu behalten und mal etwas zu warten. Darum hab ich meine 3080 FE auch erst vor ein paar Tagen bekommen und keine Custom Design für 300 Euro mehr gekauft. Der Konsument hat es in der Hand. Nur viele können einfach nicht warten bzw. objektiv sein. Ich hätte auch nix gegen ne AMD Karte gehabt aber da kommt wieder ne nette Sache von Nvidia in die Quere. Neben Cuda und Co. was Software-Seitig für mich relevant ist, steht in meiner Stube auch ne Shield über die ich auch in er Stube mit meiner Frau mal n Game zocken kann das mein PC im Arbeitszimmer berechnet. Feine Sache! Manchmal ist es eben mehr als Rohleistung in reinen FPS und nur Zocken...
 
Zuletzt bearbeitet:
Gibt es eine Liste zu den 24 Spielen? Habe im Artikel nichts gefunden. Sehr schade, dass FF15 kein DLSS 2.0 unterstützt - gerade da hätte ich es brauchen können. Selbst mit einer 3070 kaum spielbar in 1440p :(
 
  • Gefällt mir
Reaktionen: EL-SANTO
Qarrr³ schrieb:
Bei dlss2.0 quality habe ich noch kein Spiel gesehen, das bei 4K Ausgabeauflösung schlechte Ergebnisse produziert. Ich bin da ziemlich zuversichtlich.

Und genau das :-)
Darum hab ich in Control in der ini Datei den DLSS Renderer auf 1440p angehoben, also quasi DSR/Super Sampling für meinen 1440p Monitor, weil die FPS ausreichen und hab dadurch ein knackig scharfes 4k Bild bei unveränderten FPS :-)
 
  • Gefällt mir
Reaktionen: EL-SANTO
4 weitere Spiele? Ich bin beeindruckt, eine wirkliche Schlüsseltechnologie, wie es scheint.

Deep-Learning-basiertes 'Super' Sampling wird auch mittelfristig für mich persönlich eher Gimmick als Feature sein. Aber jeder wie er mag.
 
  • Gefällt mir
Reaktionen: corvus
Schon interessant wie Algorithmen einfach schlicht "KI" genannt werden, um krass futuristisch und innovativ zu klingen.

Soweit ich weiß, ist die Menschheit noch eine Ecke davon entfernt, künstliche Intelligenz zu erschaffen. Aber gut, Marketing rules yo!
 
  • Gefällt mir
Reaktionen: up.whatever, Col.Maybourne, corvus und eine weitere Person
Fortschritt kostet eben...AMD lässt sich diesen ebenfalls bezahlen, siehe ZEN3😉
 
  • Gefällt mir
Reaktionen: engineer123
DLSS kann man ja als neben Argument stehen lassen, aber die Rohleistung sollte das Haupt Argument sein beim kaufen.
Man kann sich nicht drauf verlassen dass jede spielebude den Spaß implementiert und dann auch noch ordentlich.

Ausserdem ist heute AMD Tag... Etwas mehr als 2h noch... cant wait
 
  • Gefällt mir
Reaktionen: Onkel Föhn und engineer123
Entschleuniger2 schrieb:
Schon interessant wie Algorithmen einfach schlicht "KI" genannt werden, um krass futuristisch und innovativ zu klingen.

Soweit ich weiß, ist die Menschheit noch eine Ecke davon entfernt, künstliche Intelligenz zu erschaffen. Aber gut, Marketing rules yo!

Hast du dich schon mal mit der Geschichte dieser "Algorithmen" auseinandergesetzt? KI ist ein breites Feld, und ein großer Teil der Forschung hatte nun mal das Ziel, Maschinen und später Computer Aufgaben bewerkstelligen zu lassen, die sie vorher nicht konnten, ein Mensch hingegen schon. Soll man das Forschungsgebiet jetzt nicht KI nennen, weil man noch nicht den Terminator erschaffen hat?
 
nr-Thunder schrieb:
Soll man das Forschungsgebiet jetzt nicht KI nennen, weil man noch nicht den Terminator erschaffen hat?

Es geht darum, dass sie ihr Produkt "Terminator" nennen, obwohl sie ihn eben noch NICHT erschaffen haben. Es ist genauso eine Marketing-Lüge wie der "Autopilot" von Tesla.
 
Ich weiß garnicht was alle gegen DLSS haben.
Ja es ist LEIDER nicht so weit verbreitet aber ich hoffe sehr das sich das ändert.
Man verliert vielleicht ein bisschen Qualität aber hey, da sind vielleicht 3 %. Meckern auf hohem Niveau.
Dafür hat mann 50% mehr FPS. Den Trade gehe ich allemal gerne ein!
 
  • Gefällt mir
Reaktionen: Col.Maybourne und S.Kara
Entschleuniger2 schrieb:
Schon interessant wie Algorithmen einfach schlicht "KI" genannt werden, um krass futuristisch und innovativ zu klingen.

Soweit ich weiß, ist die Menschheit noch eine Ecke davon entfernt, künstliche Intelligenz zu erschaffen. Aber gut, Marketing rules yo!

Dabei handelt es sich um ein intelligentes Upsampling auf Basis eines KI-Algorithmus
DLSS („Deep Learning Super Sampling“)

Ja ein lernendes Algorythmus kann man als KI bezeichnen in der IT.
Ja "echtes KI" wie androiden gibt es (noch) nicht....es ist sogar schwer normale Intelligenz in Menschen zu implementieren
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Computer-Base ist AMD verseucht anders kann man sich viele Kommentare nicht mehr erklären.
Das ist auch nicht mehr lustig wie sehr gegen Nvidia geschossen wird und man AMD vergöttert für jeden kleinen Pups.

DLSS ist die Zukunft, da sollte es keine 2 Meinungen geben...
 
  • Gefällt mir
Reaktionen: thuNDa, Knito, Shady1907 und 2 andere
Kenne immerhin einen der vier Titel, und den werde ich nie spielen :D
Kurze Recherche zum Rest -> 3x Shooter, 1x Panzer MMO (nenne ich jetzt mal so).
DLSS scheint nur für ne Spielekategorien zu kommen, die micht nicht mehr interessieren :(
Oder welche, die die FPS brauchen :D
 
Papabär schrieb:
funzt eh nur auf nvidia Karten , also wird es sich eh nicht durchsetzten , solange kein Einheitlicher Standart ala Vulkan oder DX12... dies Hersteller unabhängig integriert
So etwas gehört nicht in DirectX oder Vulkan. Genau so wenig, wie AntiAliasing oder Ambient Occlusion Verfahren in APIs standardisiert sind.
DLSS ist nur einer von vielen Software-Algorithmen, den Nvidia in seinen Gameworks Bibliotheken anbietet. Über diese Bibliotheken haben sie auch schon eigene AntiAliasing Verfahren oder Ambient Occlusion Verfahren angeboten.
Es sind also lediglich selbst entwickelte Algorithmen, die auch jeder Entwickler selbst entwickeln könnte. Viele tun das ja bei AA und AO verfahren ja auch und schrieben ihre höchst individuellen Algorithmen.
Bloß weil Nvidia etwas anbietet hält das Entwickler oder anderen Grafikkartenhersteller also nicht davon ab, eigene Algorithmen zu entwickeln und bei DLSS ist das nicht anders. DLSS ist ja kein propritäres Feature von Nvidia.
Jeder kann die Tensor Cores über DirectML nutzen um sich ein eigenes Upscale-Verfahren zu schreiben.
Wer möchte kann es sogar so implementieren, dass es auf den Shader Cores läuft. Das ist es, was AMD ja wohl gerade tut.
Am effizientesten wird es aber immer noch sein, es mittels spezieller AI Hardware auszuführen, die mit CUDA angesprochen wird. (Mit DirectML soll man die Tensor Cores nicht so explizit ansprechen können wie mit Cuda) Von daher wird Nvidias mitgelieferte Bibliothek für die Meisten auch die favorisierte Wahl sein.
Es wird am wenigsten Aufwand verursachen und die meiste Performance liefern.
 
Onkel Föhn schrieb:
Also auf allen 4 gezeigten Benchmark Ergebnissen liegt die 2080 Ti vor der 3070.
Das ist ganz gut so. Also wird Keiner von der Ti auf die 3070 wechseln.
Die RX6000 wird wohl auch nur dort landen.(Superresi kann momentan Keiner einschätzen)
Die 3080 lohnt sich auch kaum für ein Ti-OC-Modell.

Ergo lässt hoffentlich der Run auf die neuen Grakas <649...749€ etwas nach.
Ist mir eh lieber wenn sich der Bedarf auf beide Hersteller verteilt.

btw.
Bis es die kleinen NV+AMD-Modelle gibt wirds auch Superresi geben. Dann kann man schauen, ob
<400€ ein Blumentopf zu gewinnen ist. Die 3060Ti kommt hoffentlich für 399, dito 6700.

ansonsten
Verstehe net, warum NV net auch die Ergebnisse im Quality-Mode zeigt.
Sollte langfristig der Balanced-Mode in mehr Games ausreichen, wärs auch net schlecht.
Aber dazu fehlen leider auch die Ergebnisse.
Mit "ausreichen" meine ich die Bildqualität und net Fps.(mehr Fps gibts mit Regler links)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Onkel Föhn
Zurück
Oben