News Im Test vor 15 Jahren: Als ATi und Nvidia bei der Qualität mogelten

Ach und wo vorhin noch jemand nach einem Beleg für Grafikunterschiede bei Ashes of the singularity verlangt hatte, man beachte z.B. die deutlich reduzierten Lichteffekte die vor allem bei den Raketen und den Triebwerken der Flieger auffallen.
 
Wadenbeisser schrieb:
Ach und wo vorhin noch jemand nach einem Beleg für Grafikunterschiede bei Ashes of the singularity verlangt hatte, man beachte z.B. die deutlich reduzierten Lichteffekte die vor allem bei den Raketen und den Triebwerken der Flieger auffallen.

OMG. Das Video ist bei den Spielszenen (mit einem Handy?!) abgefilmt. Erkennt man an den Monitor Rahmen oben, links und rechts. Deswegen gibt es dort Reflektionen die nicht reingehören normalerweise und das erklärt auch den Sättigungsunterschied. Und noch eins. YouTube Videos eigen sich nicht zum Vergleichen von Qualitätsunterschieden noch ist es generell in der Lage einen Grafik Eindruck zu vermitteln. Warum? Weil YouTube eine starke Kompression nach dem Hochladen vornimmt.
 
  • Gefällt mir
Reaktionen: sysrq und Wintermute
KuestenNebel schrieb:
Zunächst einmal ist es kein "Cheating". Deine Wortwahl suggeriert, dass hier irgendetwas heimlich passiert. Schwachsinn.

Zum anderen handelt es sich hierbei um eine komplett neue Upscaling-Methode, die keinem primitiven Interpolationsalgorithmus folgt. Stattdessen erfolgt das Upscaling durch ein neuronales Netz, das mit Screenshots aus dem Spiel trainiert wird sowie die Bewegung des Spielers berücksichtigt.

Möglicherweise liegt es nur daran, dass ich im Bereich des maschinellen Lernens aktiv bin und dadurch die Komplexität und Innovationskraft dieses Verfahrens einschätzen kann. Aber seid doch wenigstens so gut und lest euch wenigstens Grundlagen an, bevor hier derartig vorschnell unsinnige Urteile vom Kaliber


gefällt werden.


Ändert bix dran das nativ besser aussieht... Entweder das bild sieht mit DLSS 2.0 geblurt aus oder überschärft... Selten das es gut aussieht... Und ja, ich bin als grafiker nebenher tätig und sowas springt mir sofort ins auge.
 
XTR³M³ schrieb:
Ändert bix dran das nativ besser aussieht... Entweder das bild sieht mit DLSS 2.0 geblurt aus oder überschärft... Selten das es gut aussieht...
Bitte mal anhand eines Vergleiches erläutern, am besten hier einen Screenshot posten. DLSS 2.0 hat gar keinen Unschärfeeffekt mehr, sondern zeichnet das Bild leicht schärfer als nativ. Zeig mir bitte ein Spiel mit DLSS 2.0 und Unschärfe.
Nativ sieht wegen fehlender Detailrekonstruktionen gerade bei hoher Sichtweite nur in Teilbereichen besser aus, insgesamt ist die Bildqualität auf Augenhöhe zum nativen Bild, schau dir mal Minecraft RTX oder Wolfenstein an.
 
KlaraElfer schrieb:
Bitte mal anhand eines Vergleiches erläutern, am besten hier einen Screenshot posten. DLSS 2.0 hat gar keinen Unschärfeeffekt mehr, sondern zeichnet das Bild leicht schärfer als nativ. Zeig mir bitte ein Spiel mit DLSS 2.0 und Unschärfe.
Nativ sieht wegen fehlender Detailrekonstruktionen gerade bei hoher Sichtweite nur in Teilbereichen besser aus, insgesamt ist die Bildqualität auf Augenhöhe zum nativen Bild, schau dir mal Minecraft RTX oder Wolfenstein an.

https://imgsli.com/MTUwMDg/1/2
 
Ex3cuter schrieb:
OMG. Das Video ist bei den Spielszenen (mit einem Handy?!) abgefilmt. Erkennt man an den Monitor Rahmen oben, links und rechts. Deswegen gibt es dort Reflektionen die nicht reingehören normalerweise und das erklärt auch den Sättigungsunterschied. Und noch eins. YouTube Videos eigen sich nicht zum Vergleichen von Qualitätsunterschieden noch ist es generell in der Lage einen Grafik Eindruck zu vermitteln. Warum? Weil YouTube eine starke Kompression nach dem Hochladen vornimmt.

Also ungeachtet der Sättigung oder Plattformkompression oder des Aufnahmeverfahrens sehe ich viel mehr Details und Tiefe bei AMD.
 
Ist denn nicht irgendwie alles "getrixt" man bekommt doch nirgends das "Originalbild" zu sehen.
Sei es beim Gaming, Fernseher, Foto usw.

Da wird doch überall getrixt mit irgendwelchen Bildverbesseren usw.

Unsere lieben Entwickler und Programmierer sollen mal endlich die ungenutzten Cpu-Kerne einbinden, man könnte ein Teil der Berechnungen auf die CPU legen.

Selbst im 21. Jahrhundert wo fast jeder ein 6- Kerner hat, gurken viele Spiele und Anwendungen noch auf ein Kern rum und das kann es ja wohl nicht sein.....
 
KlaraElfer schrieb:
Weil die Entwickler von Control die Darstellung so gewählt haben, das hat nichts mit Nvidia zu tun
Wenn diese Unschärfe von den Entwicklern gewollt ist und DLSS das Bild dann schärfer macht, weicht es dann nicht vom Original ab und verfälscht somit das Ergebnis?
Ob es besser aussieht durch mehr Schärfe tut hier nichts zur Sache. Und die Frage ist durchaus berechtigt, warum es so Unscharf ist.

Das Fazit aus einigen Bildvergleichen zu DLSS "Das bild wird besser" ist so einfach nicht richtig. Das Bild wird anders (verfälscht) und wirkt durch die zusätzliche Schärfe einfach besser, obwohl es vom Original total abweicht.


Oneplusfan schrieb:
Hättest du dir den Vergleich von vorhin angesehen, hättest du erkannt, dass DLSS Teile des Zaunes rekonstruiert hat und damit näher an der "Wahrheit" liegt als die native Berechnung (weil die native Berechnung eben durch die Pixelzahl limitert wird).

Ich kann den Vergleicht auf den du dich beziehst nicht finden, aber wenn nativ nicht in der lage ist etwas anzuzeigen, weil das Objekt zu klein für die Auflösung ist, dann ist DLSS weiter weg von der "Wahrheit", wenn es das Objekt anzeigt, weil es das Objekt größer macht als es wirklich ist.
Noch ein mal, ob es besser aussieht ist etwas anderes, aber das Ergebnis wird verfälscht und ist nicht näher an der "Wahrheit"
 
Das ihr wegen DLSS fast schon einen Glaubenskrieg führt war erst ganz amüsant, aber irgendwann wurde es traurig. Wenn ihr von DLSS überzeugt seid, dann müsst ihr nicht jeden missionieren, der es nicht ist. Das gleiche gilt natürlich auch vice versa.
 
Hat auf jeden Fall ein Fremdschämcharakter hier...

Kurzfassung:
Neuinterpretiation/Neusprech von "cheaten".
Diffamieren des DLSS Features allgemein.
DLSS mit 60 FPS ist eine Fälschung und nur 32 FPS ist besser und Original.
"Hier würde ein Link von 20xx stehen"
 
  • Gefällt mir
Reaktionen: KlaraElfer, sysrq, Ex3cuter und eine weitere Person
Funktioniert DLSS eigentlich auch mit VR? Heisst auflösungsunabhängig dass DLSS auch mit den unterschiedlichen Headsets klarkommt?
 
sysrq schrieb:
Mir persönlich wäre das zu viel Aufwand, wenn man gegen so eine Wand von Unwahrheiten spricht.
Ehrlich gesagt, schreibe ich in dem Fall nur den Leuten, mit denen eine Sinn bringende Diskussion möglich ist.

Alles andere bringt in dem Fall nichts, weil man sich zu schnell im Kreis drehen würde, dass sieht man ja an dem Beitrag von der einen Person, in der man die beiden VRS-Screenshots verlinkt hat. Klar, an der Stelle sieht man "deutlich" einen Unterschied, nur gibt es da halt ein paar weitere Probleme und ich bezweifle ernsthaft, dass die Person das nötige Wissen hat diese Probleme auch selbst zu erkennen, warum gerade diese Screenshots eben nicht das beste Beispiel sind, seinen Standpunkt zu untermauern.

Wer den neuen Techniken wie RPM, VRS und Co negativ eingestellt ist, der soll es auch gerne sein, es ist nicht meine Aufgabe so jemanden zu überzeugen. Allen anderen, die gerne mehr Wissen wollen, liefer ich wiederum sehr gerne mehr Hintergrund um sich eine eigene Meinung zu bilden.
 
  • Gefällt mir
Reaktionen: SyntaX und .Sentinel.
Ja, das werde ich wohl auch nie kapieren. Was, verdammt noch mal, ist an einer Technik schlecht die versucht, aus dem was man hat, das beste rauszuholen.

Man hat die Wahl, 4k, 8k, was weiß ich. Hm, die Hardware reicht nicht für spielbare FPS, also DLSS. Ok, funktioniert. Sieht ein bisschen anders aus, aber immer noch gut. Also wird's genutzt oder eben auch nicht.
Ob da ne Zaunslatte ein bisschen dicker oder dünner dargestellt wird, wen interessiert das eigentlich?
Leute, die mit der Lupe vorm Bildschirm hocken, um ja keinen falschen Pixel zu verpassen? Man, das ist doch keine Medizintechnik oder so was. Hier geht's um Spiele.

Was das mit cheaten (für mich gleich Betrug) zu tun hat, weiß der Geier.
 
Man darf da nicht zu hart urteilen. Wie Teralios schon so schön sagte, begreifen diejenigen, die hier einseitig argumentieren diese Techniken nicht bzw. haben überhaupt kein Interesse daran, dem ganzen auf den Grund zu gehen.

Die Kernskepsis lässt sich hier nämlich auf einen zentrale Frage zusammenschmelzen:
Wie kann es sein, dass ein niedrig aufgelöstes Bild durch irgendeine KI mehr Details zeigen soll?

Wenn man die Technik dahinter nicht verstanden hat oder verstehen will, dann ist es auch völlig klar, warum hier von Grund auf Skepsis herrschen muss.

Unternehmen wir mal noch ein par Erklärungsversuche:
Nehmen wir mal ein Beispiel aus der Projektionstechnik, dann wird das ganze vielleicht anschaulicher.

Die überwiegende Anzahl der heutzutage erhältlichen Beamer arbeitet mit shifting- Technik.
Die native Auflösung der meisten 4K- Projektoren ist FullHD.

Was macht man nun um auf die 4K zu kommen:
https://www.digitec.ch/de/page/pixel-shifting-das-gefaelschte-4k-7929

Und so kann man sich das ganz grob mit DLSS auch vorstellen. Wobei dort das Bild 3x geshiftet bzw. 3 x abgetastet wird.
Vorgängerframe, aktuelles Frame und zukünftiges Frame, jeweils an einer anderen Position.

Keine Magie, kein Hinzuzaubern von Bildinhalten, Qualität gleich oder ähnlich der nativen Auflösung nur deutlich "billiger" in der Berechnung. Die Informationen sind alle da, stammen alle aus der Ausgangsbasis auf welcher auch die 4K Bilder herkommen und fürgen sich über 3 Frames verrechnet zu einem hochauflösenden Bild zusammen.

Dann wird anschließend die AI Mustererkennung drübergeschickt, die den "Charakter" der 3 Bilder analysiert und diese dem angelernten Datensatz bzw. Bildcharakter annähert.

Das große, große Missverständnis beruht eben nur darauf, weil einige hier nicht verstehen, woher das Verfahren die Daten für die zusätzlichen Pixel nimmt und mutmaßen, dass die irgendwie hinzugezaubert oder hinzugeraten (passiert in letztem Schritt in begrenztem Maße) werden.

DLSS 2.0 kann nur deshalb teils bessere Ergebnisse erzielen, weil das Bild eben nicht 2x sondern sogar 3x an unterschiedlichen Stellen abgetastet wird. Also hat man in Summe tatsächlich mehr echte Information als nativ zur Verfügung, mit welcher man das Bild zusammenpuzzlen kann.

Gutes Stichwort neuer Erklärungsversuch.
Man löst die Hälfte eines Puzzles, legt also nur jedes zweite Puzzelteil an. Damit ist man theoretisch doppelt so schnell, hat aber nur die Hälfte der Auflösung.

Dann knipst man ein Foto von dem Zustand und legt nun die zweite Reihe Puzzle dazu.

Obwohl man nun in jedem Arbeitsschritt immer nur die Hälfte des Puzzles gelöst hat, hat man zum Schluss doch das nativ aufgelöste Gesamtbild.

Ganz ohne Zaubern.

Jetzt muss man sich aber vorstellen, dass es bei Computerspielen so ist, dass sich der Inhalt des Puzzles eben laufend ändert/verschiebt. Die Fehler, die dadurch entstehen können, korrigiert man, indem man eine Bewegungsanalyse durchführt und somit sicherstellt, dass die Puzzleteile an die richtige Stelle kommen, obwohl einer immer am Tisch wackelt, auf dem man das Puzzle machen soll.

Hoffe dass vielleicht bei einigen Leuten der Groschen fällt.

LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: KlaraElfer
whyme schrieb:
Und die Frage ist durchaus berechtigt, warum es so Unscharf ist.

Die Frage ist berechtigt, aber es gibt schon mehrere DLSS 2.0 Spiele (wovon Wadenbeißer nichts weiß), womit sich die Vermutung einer absichtlichen Darstellung einer Unschärfe in Control erledigt hat und im Prinzip auch die Frage dahinter. Es ist schlicht Art Design, Geschmackssache. Mehr Unschärfe führt gleichwohl auch zu mehr Bildruhe.
In Zukunft soll es einen Regler mit DLSS 2.0 geben, den es bei Nvidia Freestyle zur Einstellung des Schärfegrades schon gibt.

whyme schrieb:
Das Fazit aus einigen Bildvergleichen zu DLSS "Das bild wird besser" ist so einfach nicht richtig.

Sagen aber mehrere Analysen mit Leuten die generell viel vom Thema verstehen, gerade Wolfenstein Youngblood ist ein Beispiel dafür, dass Nativ mit TAA insgesamt tendenziell schlechter aussieht als DLSS Quality und das ist schlicht beeindruckend, so auch der Tenor der Tests zu dem Feature.

whyme schrieb:
Das Bild wird anders (verfälscht) und wirkt durch die zusätzliche Schärfe einfach besser, obwohl es vom Original total abweicht.

Es geht hierbei nicht nur um die Schärfe, sondern um die Detailrekonstruktionen welches das neuronale Netzwerk aus den hochaufgelösten 16K Material des Spiels zieht und lernt wie das Spiel auszusehen hat um optisch möglichst nah an das hochaufgelöste Ergebnis ranzukommen. Zu sagen das Bild wird verfälscht, obwohl das Ergebnis an das höher aufgelöste Material angenähert wird, offenbart dass du die Technik nicht verstehst.
Die Schärfe ist auch unter anderem ein Resultat höher aufgelöster Bilder und muss nicht zwangsweise das Resultat eines einfachen Schärfefilters wie bei RIS oder Freestyle sein. Je höher die Auflösung, desto schärfer das Ergebnis.

whyme schrieb:
Ich kann den Vergleicht auf den du dich beziehst nicht finden...

Auf der Website von Nvidia ist es schön zu sehen.

whyme schrieb:
aber wenn nativ nicht in der lage ist etwas anzuzeigen, weil das Objekt zu klein für die Auflösung ist, dann ist DLSS weiter weg von der "Wahrheit", wenn es das Objekt anzeigt, weil es das Objekt größer macht als es wirklich ist.

Dann ist deine Wahrheit eine Lüge, denn das menschliche Gehirn rechnet nicht in Pixeln.

whyme schrieb:
Noch ein mal, ob es besser aussieht ist etwas anderes, aber das Ergebnis wird verfälscht und ist nicht näher an der "Wahrheit"

Kann deine Logik hier nicht nachvollziehen. Die "Wahrheit" ist doch nicht ein niedrig aufgelöstes Bild, sondern ein hoch aufgelöstest.
 
Da ich warten muss, bis der Arzt hoffen hat - NEIN NICHT COVID-19, auch keine andere Krankheit, hab mir den Fuß übel verstaucht - ein kurzer Einschub von mir an dieser Stelle!

whyme schrieb:
Noch ein mal, ob es besser aussieht ist etwas anderes, aber das Ergebnis wird verfälscht und ist nicht näher an der "Wahrheit"
Ja und nein als Antwort an dich an dieser Stelle. Es kommt hier nämlich erneut darauf an, wie DLSS, VRS, RPM und Co eingesetzt werden. Recht hättest du, wenn diese Techniken vom Treiber erzwungen werden und der Entwickler kein Einfluss darauf hat. In dem Fall wird das Ergebnis wirklich verfälscht und da müssen wir auch nicht groß drüber diskutieren.

Aber: Sobald die Entwickler sich aktiv für die Implementierung dieser Features entscheiden, wird hier bewusst eine Entscheidung getroffen und die Entwickler des Spieles - sowohl Programmierer, als auch Designer - müssen sich mit den Vor- und Nachteilen beschäftigen und haben ab diesem Zeitpunkt auch Einfluss darauf, wie das Bild am Ende aussehen soll und was ihnen wichtig ist.

Aber ob ein Bild verfälscht wird oder nicht, dass war bisher nicht Kern der Diskussion, bisher ging es darum, dass ja DLSS, VRS und Co die Bildqualität verschlechtert und deswegen alles ganz böse ist. ;)

KlaraElfer schrieb:
Sagen aber mehrere Analysen mit Leuten die generell viel vom Thema verstehen, gerade Wolfenstein Youngblood ist ein Beispiel dafür, dass Nativ mit TAA insgesamt tendenziell schlechter aussieht als DLSS Quality und das ist schlicht beeindruckend, so auch der Tenor der Tests zu dem Feature.
Wobei man hier unterscheiden muss. Auf Screenshots wird Native Auflösung + TAA meist etwas besser als das Bild per DLSS. Das betrifft jetzt aber primär die Screenshots. In Bewegung wiederum neigen bei TAA einige Texturen zum Flimmern wodurch das Bild unruhiger in Bewegung wird, während das Bild mit DLSS ruhiger bleibt und daher in Bewegung wieder besser aussieht.

KlaraElfer schrieb:
Das ist zwar eine richtige Antwort, aber man zieht es hier falsch auf.

Deswegen an dich @whyme nein, die Grafik mit DLSS ist nicht weiter Weg von der Wahrheit, sondern DLSS kann Strukturen in das Bild einfügen, die auf Grund der Ungenauigkeit" eines Rasterizers am Ende beim Erstellen des Pixelbildes verloren gehen. Hier kennen Engines oft nur den Zustand "Sichtbar" oder "Nichtsichtbar", die Wahrheit ist aber in der Regel ein "Nichtsichtbar" bis hin zu einem "gut Sichtbar". Nur lässt sich das in einer Rastergrafik eben nicht gut darstellen und gerade feine Details gehen gerne verloren, nicht weil sie nicht sichtbar wären in der "Wahrheit", sondern weil die Engine in der Regel durch einen Schwellenwert die Werte eher verwirft.

Man kann hier also nicht davon sprechen das etwas verfälscht wird oder der Wahrheit entspricht. Denn bereits die Grafikengine ist, wenn man denn Begriffe wie "Wahrheit" oder "Fälschung" nutzen möchte, eine einzige Verfälschung.
 
Teralios schrieb:
Wobei man hier unterscheiden muss. Auf Screenshots wird Native Auflösung + TAA meist etwas besser als das Bild per DLSS.

In Wolfenstein? Hab ich selbst und in den Vergleichen so nicht sehen können.
 
KlaraElfer schrieb:
In Wolfenstein? Hab ich selbst und in den Vergleichen so nicht sehen können.
Ich beziehe mich da auch nur auf die verschiedenen Aussagen von Spielern und Co. Am Ende haben aber beide Verfahren Probleme mit "gleichmäßigen" Mustern - Labor X. ;)

Aber Bildeindrücke sind eh zum Teil auch Subjektiv.
 
Schattenspender schrieb:
Ja, das werde ich wohl auch nie kapieren. Was, verdammt noch mal, ist an einer Technik schlecht die versucht, aus dem was man hat, das beste rauszuholen.
Der direkte Vergleich dieser "Abkürzung" mit der normalen Wegstrecke und die Verweigerung sie als solche anzuerkennen.
Akzeptiert man sie als Upscaling Methode die eben nicht mit der nativen Auflösung arbeitet und klemmt sich entsprechende Performance Vergleiche spricht absolut nichts dagegen denn dann ist sie eine gute Alternative für jene deren Hardware den nativen Anforderungen nicht gewachsen ist.

Das Problem ist also weniger die Technologie an sich als vielmehr deren Jünger.
 
Zurück
Oben