Bericht Leser-Blindtest 2026: Die Community sieht DLSS 4.5 klar vor FSR und Nativ + TAA

LucLeto schrieb:
Vielleicht weil wir als Nutzer schon an FSR bzw. DLSS gewöhnt sind. Würde halt auch bedeuten, dass viele bei CB noch nativ unterwegs sind :D
Spannende These - wenn ich an die schlechtere Lösung gewöhne sehe ich den Unterschied zur besseren Lösung nicht mehr? :confused_alt:
 
Was ich mir hier schon anhöre musste, dass DLSS kein ausreichendes Kaufargument ist um zu Nvidia zu greifen (und ja, mir ist es VOLLKOMMEN egal ob Nvidia oder AMD, ich will das bessere Produkt!).

Hoffe das wird dann auch mal einbezogen, wenn sich wieder für 9070/XT statt für 5070/Ti ausgesprochen wird...
 
  • Gefällt mir
Reaktionen: MalWiederIch
Nativ ist somit offziell tot.
DLSS bietet bei mehr FPS quasi vergleichbare wenn nicht sogar bessere Qualität.

Sollte dem letzten Nativ-Verfechter nun auch klar sein..
 
  • Gefällt mir
Reaktionen: Angiesan
blackiwid schrieb:
Seh ich anders, sicher vielleicht nicht Nvidia exclusive aber generell einfach alles was nicht AMD ist, sicher FSR4 hat zurecht relativ gute Presse bekommen das wäre ja auch lächerlich hätte man das komplett schlecht geredet, damit würde man sich ja komplett disqualifizieren.
Ne CB hypt sicher kein Nvidia, die haben nicht mal die letzten 2 Jon Peddie Research Marktzahlen gebracht, aus "unbekannten" gründen und quasi als einziger am deutschen Hardware News Magazin
 
Grestorn schrieb:
Da steht nichts davon, dass die KI Bilder erstellt. DLSS erstellt die Bilder auf der Basis der vorher temporal gerenderten Daten.
@Wolfgang
Hilf uns mal bitte. Grestorn versteht einfach nicht, dass DLSS SR eine Form von generativer KI ist. Selbstverständlich ist es offensichtlich und auch überall nachlesbar, dass DLSS SR aus mehreren niedrigaufgelösten Bilder ein hochaufgelöstes Bild generiert, aber er versteht es einfach nicht.
Ich habe schon mehrfach probiertes ihm zu erklären, dabei bin ich wohl ein wenig übers Ziel hinausgeschossen und er hat meine Beträge fälschlicherweise als beleidigend empfunden. Deswegen wurden meine Beiträge verschoben. Ich habe auch versucht es zu melden, aber der Mod meinte, dass er hier inhaltlich nichts dazu schreiben kann. Du hast doch bestimmt die nötige Autorität und Fachkenntnis um ihm das klarzumachen, oder?
 
  • Gefällt mir
Reaktionen: Iscaran
GerryB schrieb:
im Mittel also nur 50% für DLSS 4.5
heisst, jeder Zweite konnte also den Vorteil nicht erkennen
Im Mittel im Quality Modus also nur 15% für FSR AI, den Vorteil konnten also 3-4 mal so viele Menschen erkennen.

Abzüglich von jenen die absichtlich für das schlechtere Ergebnis gestimmt haben, damit FSR/TAA nicht so schlecht wegkommt.

TAA vor FSR ergibt in einem Blindtest mit Quality Upscaling keinerlei Sinn. Abzüglich von jenen die den Player nicht richtig bedient haben.
GerryB schrieb:
kann daraus dann keinen Kaufzwang
Ein Kaufzwang existiert generell nicht, abgesehen von dem Zwang alles positiv für AMD sehen zu müssen, das existiert scheinbar. Wenn überhaupt wäre Kaufanreiz der richtige Begriff und der ist entgegen deiner Einschätzung klar für ein besseres Bild oder mehr Performance gegeben.
GerryB schrieb:
für die teuere
NV-Hardware ableiten bzw. ist mit ner anderen Lösung auch "zufrieden"
Wenn man eh zufrieden ist und mit einem schlechteren Bild offenbar leben kann oder es nicht erkennt ist es noch vorteilhafter. Dann kann man DLSS 4.5 Performance nutzen, das liegt bei FSR 4 Quality.

Man könnte den Test auch im Performancemodus wiederholen.

|Moppel| schrieb:
Ich denke noch wahnwitziger kann man nicht Schlussfolgern.
Es geht immer noch eine Stufe absurder.
Ich kann mir das nicht mehr geben. An der Art der Argumentation siehst du auch, dass die Motivation für das schlechtere Bild zu stimmen um AMD zu helfen keine absurde Vermutung ist.
zeedy schrieb:
Für mich ist genau das Gegenteil der Fall,
Die Native Warrior sind zurück. :D
Beste Unterhaltung. TAA hat gewonnen...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DaHell63
KI Upscaling wurde ja erfunden, um die Leistungsanforderungen der Kantenglättung zu reduzieren.
Nativ wird immer das Problem der Kantenglättung haben, außer man möchte MSAA oder TAA nutzen - die beide je nach Spiel Schwächen haben.

Ich würde mir von AMD wünschen wenn Sie FSR4 offensiver angehen. Es ist nicht aktzeptabel, dass 2026 ein Spiel ohne FSR4 auf den Markt kommt. Gerade bestehende Spiele wie Cities Skylines 2 hätten FSR4 verdient - vielleicht kommt da ja was von Iceflake Studios.
 
  • Gefällt mir
Reaktionen: Krazee
TheInvisible schrieb:
DLSS ist nicht nur ein dummer Algo, das Modell wurde mit 16k Auflösung trainiert und kann daher doch auf mehr Detailinformationen zurückgreifen
Dass es so einfach ist, halte ich für ein Urban Myth. Aber tatsächlich belegen kann ich das nicht.

Ich würde sagen, der Algo ist sogar wesentlich komplexer, WEIL man nicht einfach nur mit irgendwelchen hochauflösenden Daten trainiert hat (in der Hoffnung, dass dann magisch hochauflösende Bilder in ganz anderen Spielen generiert werden), sondern dass vieeeeel gezielter auf Problemstellen und deren Korrektur trainiert wird.
 
Grestorn schrieb:
Ja, das habe ich auch nicht bestritten, aber eben nicht zur Generierung und damit zur "Erfindung" von irgendwelchen Bilddaten.

Gut, dann haben wir das ja etabliert.

Angenommen wir haben ein 480p Bild und wollen es auf 1080p bringen. Es gibt keine Daten für die die fehlenden Pixel wenn jeder Pixel gleich groß bleiben soll. Ein nicht Transformator-basierter Ansatz würde eine Interpolation aus den verfügbaren Daten durchführen und benachbarte Pixel verarbeiten. Nearest Neighbour oder sonstwas, klappt bei Pixel Grafik vlt, aber es gibt noch zich andere Modelle die darauf basieren. Leute die sich mal mit Encoding und up/downsampling beschäftigt haben kennen vlt Bicubic, Bilinear oder Lanczos Resize aus.

Zurück zu DLSS:
Wenn das native Bild durch die Renderpipeline läuft, wird es ja auch generiert anhand der Berechnungen die die GPU aufgrund des Codes durchführt. Sie erhält Input und erzeugt einen Output der ein Bild in Pixelform darstellt. Alle Informationen für die Erzeugung des Bildes liegen vor nichts wird "erfunden".

Mit DLSS sparen wir Leistung indem wir ein low-res bild rendern lassen (oder wie bereits etabliert die Daten dafür erzeugen lassen) und geben diese dann in die "alternative Renderpipeline" in Form des Transformator Models. Dieses generiert dann das Bild aus den vorhandenen Daten. ABER es hat nicht alle Daten zur Verfügung, sondern aufgrund seines Trainings berechnet es wie das Bild aussehen müsste und das wird unterschiedlich sein vom Full-Res gerenderten Bild. DLSS kann sich anhand des 480p Bildes/der Daten also ausmalen wie es in 1080p aussehen müsste aufgrund seine Trainings.

Man kann sich nun streiten ob das als "Erfinden" von Inhalten gilt oder als "es sind alle notwendigen Daten da und dies ist das korrekte Ergebnis"
 
  • Gefällt mir
Reaktionen: Iscaran und adfsrg
Grestorn schrieb:
aber man schreibt immer, dass DLSS die Bilder generiert, nicht die AI!
Das muss man auch nicht schreiben, da DLSS ja der Name dieser KI ist. Es steht ganz oben im Artikel:
Deep Learning Super Sampling (DLSS) is a suite of real-time deep learning image enhancement and upscaling technologies developed by Nvidia that are available in a number of video games.
Deep Learning ist ja KI:
In machine learning, deep learning focuses on utilizing multilayered neural networks to perform tasks such as classification, regression, and representation learning.
Quelle: https://en.wikipedia.org/wiki/Deep_learning
Artificial intelligence (AI) is the capability of computational systems to perform tasks typically associated with human intelligence, such as learning, reasoning, problem-solving, perception, and decision-making.
Quelle: https://en.wikipedia.org/wiki/Artificial_intelligence
 
  • Gefällt mir
Reaktionen: Iscaran und Andre83hro
CrustiCroc schrieb:
Du hast das Fazit des Blindtests entweder gar nicht verstanden
Nur weil man nicht die gleiche Meinung hat wie der Autor hat das nichts mit Verstanden zu tun, finde das eine Unart andere Meinungen immer mit "verstehen" ab zu wiegeln... wenn jemand Grün wählt statt z.B. CDU dann nicht weil der Wirtschaft nicht verstanden hat sondern weil ihm Klima wichtiger ist als ob hier ein paar Millionen mehr Arbeitslose sind... (überspitzt gesagt, legst nicht auf die Goldwaage ist nur ein Beispiel egal ob das nun stimmt oder nicht), es gibt eben verschiedene Prioritäten aber auch Auslegungen.

Das ist so wie wenn du bei nem MP3 vs WAV test sagst weil Leute sagen man hört den unterschied zu selten und undeutlich, das Leute die Meinung das WAV besser ist nicht verstanden haben... man muss dem immer die massivsten Aufpreise (300 Euro 9070 xt vs 5070 ti) gegenüber stellen, und selbst die kannst komplett ignorieren da du auch noch schlechtere FPS als DLSS 4.0 betrachten musst.
 
  • Gefällt mir
Reaktionen: Brrr, eXe777, Return2Burn und 2 andere
Also ich habe beim Vergleich keine allzu deutlichen Unterschiede gesehen
Ich habe mir das aber auch nicht soo lange auf der Arbeit auf einen billigen Dell 27 Zoll FullHD Monitor angeguckt. 2x Nativ, 2x FSR und 1x DLSS. Das letzte hatte ich nicht mehr gevoted weil ich keine Zeit mehr hatte und es danach vergaß.

FSR4 ist jedenfalls gut genug und würde im Vergleich zu DLSS für mich bei einem Kauf kein Einfluss haben bei solchen großen Preisunterschieden (5070ti (1000€) vs 9070xt (700€)
 
TheInvisible schrieb:
Ne CB hypt sicher kein Nvidia, die haben nicht mal die letzten 2 Jon Peddie Research Marktzahlen gebracht, aus "unbekannten" gründen und quasi als einziger am deutschen Hardware News Magazin
Das ist keine Aktienfirma hier... Peddie Research hab ich auch noch nie gehört soll ich jetzt auch ne Webseite mit meinem Namen Research raus bringen und irgend was von mir geben?
Die haben nicht mal nen Wikipedia Artikle... give me a break.
 
  • Gefällt mir
Reaktionen: Alphanerd und Andre83hro
Bregor schrieb:
Man kann sich nun streiten ob das als "Erfinden" von Inhalten gilt oder als "es sind alle notwendigen Daten da und dies ist das korrekte Ergebnis"
Noch nicht mal. Wäre das Ergebnis korrekt, dann würde der Output zu 100% mit der Ground Truth übereinstimmen. Das das nicht der Fall ist, darüber braucht man nicht diskutieren. Auch nicht darüber, dass alle notwendigen Daten vorhanden sind, das sind sie ja offensichtlich nicht
 
  • Gefällt mir
Reaktionen: Iscaran und Bregor
adfsrg schrieb:
Noch nicht mal. Wäre das Ergebnis korrekt, dann würde der Output zu 100% mit der Ground Truth übereinstimmen. Das das nicht der Fall ist, darüber braucht man nicht diskutieren. Auch nicht darüber, dass alle notwendigen Daten vorhanden sind, das sind sie ja offensichtlich nicht

Im Sinne des Ergebnisses: Stelle ein 1080p Bild dar, ist das Ergebnis schon "korrekt".
DLSS rechnet ja nicht falsch, sondern "anders" als die normale Renderpipeline, um der Groundtruth (das 108p Bild) nah zu kommen (identisch kann es ja per definition nicht sein), aber dafür weniger Leistung zu beanspruchen.
 
  • Gefällt mir
Reaktionen: Iscaran und adfsrg
adfsrg schrieb:
Kann es sein, dass du nur das Training aber nicht Inferenz als KI ansiehst? Du schreibst ja selbst, dass das Modell angewandt wird. Gerade das Anwenden eines KI-Modells zeigt doch ganz eindeutig, dass KI verwendet wird.
Naja, es macht ja schon einen Unterschied, ob eine KI versucht Details zu erraten oder, ob man mittels KI einen Algorithmus bzw. Model trainiert, um vorhanden Dinge zu rekonstruieren. In beiden Fällen mag es zwar KI sein, aber eben auf eine andere Art und weise. Bei DLSS 1 griff ne KI aktiv ein, ab zwei ist es nur noch passiv auf dem Server von Nvidia.
 
  • Gefällt mir
Reaktionen: usmave und Quidproquo77
blackiwid schrieb:
sind eher 900 vs 600 absolut zwar das gleiche in % aber größerer Abstand. (sind sogar 950 also
950 vs 600...

Naja, ist ja eine Ausnahmesitation.

Wenn die Nvidia bis zu 100€ teurer ist, ist sie immer der bessere Deal (gilt auch für 9070 vs 5070).
 
blackiwid schrieb:
Das ist keine Aktienfirma hier... Peddie Research hab ich auch noch nie gehört soll ich jetzt auch ne Webseite mit meinem Namen Research raus bringen und irgend was von mir geben?
Die haben nicht mal nen Wikipedia Artikle... give me a break.
Du bist ja ein Witzbold, daran orientiert sich quasi die halbe Börse für den Tech Market. Aber ja, lustig das CB dann etwas von Mercury Research über die AMD CPU Marktanteile bringt, ist ja keine Aktien Newssite hier oder? lol
 
pabu.roar schrieb:
Wenn die Nvidia bis zu 100€ teurer ist, ist sie immer der bessere Deal (gilt auch für 9070 vs 5070).
Unter Linux nicht. Daher auch nicht "immer" und selbst wenn was ist daran ne Ausnahme die 5070 Ti kostete auch 2025 selten weniger als 800 Euro die 9070xt kostete aber seit Mitte August < 600 Euro war also auch da immer mindestens 200 Euro billiger.

Also laut deinem Kriterium und wenn ich Linux ignoriere war seit damals AMD schon besser und selbst im Juli war man mit 645 Euro noch besser laut deinem Kriterium und die Verfügbarkeit war schon besser da hast in den Daten von Nvidia teils peaks bis fast 1000 Euro hoch.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Andre83hro
Zurück
Oben