• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

BF6 DLAA oder DLSS

adfsrg schrieb:
Völlig falsch? Ok, dann zerlegen wir mal meine Aussage in Teilaussagen und schauen uns die mal im Einzelnen an.


Dann lassen wir es. Das was du schreibst ist und bleibt falsch. Die von dir gezeigten Screenshots sind eine extreme vereinfachung, damit es jeder DAU versteht, wenn es auf der Verpackung aufgedruckt ist, aber es hat einfach nichts mit dem zu tun, was technisch tatsächlich passiert.
DLSS ist keine generative KI. Dir scheint einfach nicht klar zu sein, was eine generative KI macht. Ich habe dir das Beispiel mit dem Text genannt, auf das du nicht eingegangen bist, weil du es dir entweder nicht vorstellen kannst oder einfach stur auf deiner Meinung beharren willst.

Das Nachgeplappere von irgendwelchen Artikeln auf Wikipedia ist sinnlos. DLSS ist technisch gesehen einfach kein Upscaler. "Effektiv" wird daraus upscaling, ja. Vorher wenig Auflösung, später mehr Auflösung. Der Weg dorthin passiert aber weder über klassisches spatial upsacling, und auch nicht über generatives KI upscaling, sondern über temporale akkumulation von bereits gerenderten Bilddaten. DLSS ist ein deep learning gestütztes TAA verfahren. TAA wird in all seinen formen immer als temporales supersampling bezeichnet, die idee dahinter hatte ich ja erklärt, wohingegen klassisches SSAA ein spatiales supersampling ist. Am Ende ist beides Supersampling, nur mit unterschiedlichen Herangehensweisen sowie Vor und Nachteilen. Beide Herangehensweisen erhöhen aber die Samplezahl. Also die sampledichte mit der eine Szene abgetastet wird. Und das ist per definition nunmal supersampling, egal ob es temporal akkumuliert (TAA/DLSS) oder spatial berechnet wird (SSAA/MSAA).

Aber ich brauche das nicht weiter ausführen, denn das habe ich bereits. Alles weitere würde das noch weiter verkomplizieren. Noch stärker kann ich es nicht vereinfachen. Am Ende ist es mir auch egal, ob du mir glaubst oder nicht. Ich schreibe das nur, weil das was du geschrieben hast einfach falsch ist. Dass du darauf verärgert reagierst kann ich nachvollziehen, ändert aber nichts an den Fakten.

Abgesehen davon trägt unsere Diskussion gerade nichts sinnvolles zu dem Thema bei...
 
Also auf der Map Operation Firestorm man beachte den großen Turm wo das Feuer raus schießt oben. Unter DLSS 4 Q sieht das Feuer grottig aus total verwaschen und verpixelt, stelle ich das auf TAA oder DLAA sieht das normal aus.

DLAA hat die bessere Qualität aber auf kosten ein paar Frames. Wenn dir die Frames fehlen bei DLAA, dann einfach NVIDIAs FG x2 dazuschalten ich habe keine Probleme damit.

Hinzu kommt noch, dass du eine 4070ti hast was bedeutet, es wird nur DLSS 3 unterstützt wenn ich das richtig in Erinnerung habe.
 
Zuletzt bearbeitet:
Mimir schrieb:
Das was du schreibst ist und bleibt falsch
Du schreibst das, obwohl ich zweifelsfrei belegen konnte, dass meine Aussagen korrekt und deine falsch sind? Lächerlich!
Mimir schrieb:
Dir scheint einfach nicht klar zu sein, was eine generative KI macht.
Mir schon. Generativ bedeutet erzeugend. Eine generative KI erzeugt also etwas. In diesem Fall ist es ein höher aufgelöstes Bild. Dass du das infrage stellst, zeigt nur deine Unkenntnis. Ich verstehe noch nicht mal, wie man annehmen kann, dass DLSS keine generative AI ist.
Mimir schrieb:
und auch nicht über generatives KI upscaling, sondern über temporale akkumulation von bereits gerenderten Bilddaten.
Du bist echt der Meinung, dass bei dieser temporalen Akkumulation keine generative KI verwendet wird, sondern dass es "klassisch" berechnet wird? Ist das dein Ernst? Niemand außer dir zweifelt an, dass DLSS mit "KI" gemacht wird. Genauer: Deep Learning. Das steckt doch sogar im Namen drin.
Mimir schrieb:
Abgesehen davon trägt unsere Diskussion gerade nichts sinnvolles zu dem Thema bei...
Ja, kein bisschen. Dir wurde ganz klar gezeigt, dass du keine Ahnung hast und nur unqualifizierten Mist von dir gibst und du beharrst trotzdem auf deiner Meinung und gibst weiter solchen Mist von dir.

Was stimmt mit dir nicht?!
 
adfsrg schrieb:
obwohl ich zweifelsfrei belegen konnte, dass meine Aussagen korrekt und deine falsch sind? Lächerlich!
Google KI ist regelmäßig komplett für die Tonne. KI kann ja so einiges, bloß bei Fakten hakt es ja gerne.
Aus der Wikipedia beschriebung lässt sich nichtmal irgendetwas verwertbares ziehen.
Ich muss ja zugeben ich wüsste jetzt nicht konkret wer hier eher recht hat, tendiere da aber stark zu mimir. Für generative KI passt das bei DLSS nicht zum Leistungsprofil und Nvidia geht hier auf Bauernfang mit ihren Begriffen.

Am Ende reichlich egal was hier eig. genau der Fall ist, wir kennen den realen Nutzen bzw. auch die potentiellen Probleme von DLSS egal wie das jetzt zu stande kommt.
 
Stormfirebird schrieb:
Aus der Wikipedia beschriebung lässt sich nichtmal irgendetwas verwertbares ziehen.
Sie bestätigt aber doch exakt das, was ich gesagt habe.
Stormfirebird schrieb:
Für generative KI passt das bei DLSS nicht zum Leistungsprofil und Nvidia geht hier auf Bauernfang mit ihren Begriffen.
Wenn du meinst, dass DLSS keine generative KI ist, denkst du, dass es nicht generativ ist oder dass es keine KI ist? Generativ ist alles, was irgendwas erzeugt, so wie ein Bild oder einen Text. In diesem Fall ist es ein Bild, dass erzeugt wird. Somit ist klar, dass es generativ ist. Die Alternative wäre diskriminativ. Das ist z. B. wenn die KI auf einem Bild etwas erkennt und z. B. einen Hund von einer Katze unterscheidet. Das können wir hier ausschließen, das passt gar nicht.
Deep Learning (also das DL in DLSS) ist auf jeden Fall KI, ich hoffe das bestreitet keiner von euch.
Nachdem wir also geklärt haben, dass es sowohl generativ, als auch KI ist, steht fest, dass es sich um generative KI handelt.
Stormfirebird schrieb:
Ich muss ja zugeben ich wüsste jetzt nicht konkret wer hier eher recht hat, tendiere da aber stark zu mimir.
Nicht böse gemeint, aber er versteht offensichtlich noch nicht mal die Grundbegriffe.
Stormfirebird schrieb:
Am Ende reichlich egal was hier eig. genau der Fall ist, wir kennen den realen Nutzen bzw. auch die potentiellen Probleme von DLSS egal wie das jetzt zu stande kommt.
Nein. Er streitet doch ab, dass DLSS die grundsätzlichen Probleme von generativer KI hat. Die hat es aber, weil generative KI immer Details "rät". Das ist prinzipbedingt und tritt somit auch in BF auch.
 
Hallo,geb meinen Senf zur ursprünglichen Frage auch mal dazu: ich spiele mit dlaa und FG (2x) .finde das sieht hervorragend aus und für MICH persönlich besser als dlss quality.frames sind limitiert auf 174,da 175hz Monitor,gsync ist aktiviert.
Und, für MICH wichtig: SOVIS Filter ist aus! Weiß nicht ob das am HDR lag,aber seitdem ich den auf aus habe sehe ich die Gegner bedeutend besser.
 
vidarr76 schrieb:
Und, für MICH wichtig: SOVIS Filter ist aus! Weiß nicht ob das am HDR lag,aber seitdem ich den auf aus habe sehe ich die Gegner bedeutend besser.
Hast du da mal A/B getestet oder ist das eher so ein Gefühl? Ansich ist der SOVIS Filter nur ein highlighting für Gegner in Bewegung. HDR verwende ich sowieso nicht, also kann ich da nicht mitreden.
 
Es ist eher ein Gefühl was sich aber mit meiner k/d bestätigen lässt😆 die bedeutend besser geworden ist....ansonsten hab ich viel herum experimentiert was Auflösung,dlss und dlaa, SOVIS an und aus,betrifft.im Endeffekt bin ich wie beschrieben hängen geblieben.
Zum Schluss muss jeder selbst wissen was für ihn das Optimum,der sweetpoint ist.und ganz ehrlich,nur um der "beste" zu sein,lass ich mir persönlich die Grafik nicht entgehen und stell auf minimal,aber auch das bleibt jedem selbst überlassen.
 
  • Gefällt mir
Reaktionen: Stormfirebird
Was ist dieses SOVIS überhaupt? Ich konnte es in den Einstellungen nicht finden. Würde gerne mitreden können. :D
 
Zitat "Was ist der SOVIS-Filter in Battlefield 6? Der SOVIS-Filter, auch bekannt als Soldier Visibility Filter, ist eine grafische Einstellung, die die Sichtbarkeit von Gegnern drastisch verbessert. Er deaktiviert realistische Beleuchtungseffekte, wodurch gegnerische Soldaten deutlicher vom Hintergrund abgehoben werden."
findet man in den Grafikeinstellungen unter "HUD und Interface".
 
Gsonz schrieb:
Was ist dieses SOVIS überhaupt?

6 Minuten 40 Sekunden falls das mit dem Timestamp nicht funktioniert.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Gsonz und Pinguin1
adfsrg schrieb:
Mir schon. Generativ bedeutet erzeugend. Eine generative KI erzeugt also etwas. In diesem Fall ist es ein höher aufgelöstes Bild.

Zeigt nur sehr gut, dass du absolut nichts verstanden hast. Generative KI erzeugt neue inhalte, Es "generiert" wie der Name sagt NEUE Daten und würde beim Upscaling neue Details erfinden, die nicht existieren.

Wie oft soll ich dir noch erklären, dass DLSS genau das eben nicht macht, sondern nur die Daten aus alten Frames verwertet und akkumuliert. Dafür wird KI genutzt, aber nunmal keine generative KI. Die Tatsache, dass keine generative KI genutzt wird sorgt automatisch dafür, dass du mit DLSS näher an ein hochauflösendes ground truth referenzbild herankommst. Mit generativer KI wäre das nicht möglich, weil neue inhalte, neue Details generiert werden, die dann nichts mehr mit dem referenzbild zu tun haben würden.

Einfach nur faszinierend, wie stark du von deiner Unkenntnis überzeugt bist.
 
Mimir schrieb:
Es "generiert" wie der Name sagt NEUE Daten und würde beim Upscaling neue Details erfinden, die nicht existieren.
Aber exakt das ist doch der Fall.

Mimir schrieb:
Wie oft soll ich dir noch erklären
Gar nicht. Du sollst dich mal mehr mit dem Thema beschäftigen bis du verstanden hast, dass DLSS generative AI ist.

Mimir schrieb:
nur die Daten aus alten Frames verwertet und akkumuliert
Alte Daten enthalten aber doch gar nicht die Informationen, die im neuen Frame benötigt werden. Wären diese Daten in den alten Frames vollständig enthalten, dann brauchte man gar keine KI. Du bräuchtest noch nicht einmal eine Renderingengine. Es würde reichen, wenn der Entwickler dir den ersten Frame gibt. Da sind ja dann deiner Meinung nach alle Infos für den zweiten Frame drin. Und im zweiten sind dann alle Infos für den dritten, also waren sie schon im ersten. Also sind die Infos für alle Frames schon im ersten enthalten. Das das total absurd ist und damit deine Grundannahme widerlegt, sollte klar sein. Noch absurder wird es, wenn man bedenkt, dass die Frames ja auch von der Eingabe abhängig sind. Wie stellst du dir vor, dass die Information für den nächsten Frame in den aktuellen Frame reinkommen, wenn da die Eingabe noch gar nicht getätigt wurde? Bedenke, dass wir hier von Spielen reden und nicht von Filmen.

Mimir schrieb:
Dafür wird KI genutzt, aber nunmal keine generative KI.
Hier können wir ansetzen. Du sagst, dass es keine generative AI ist. Dann sag mal, welche Art von KI es ist. Dann widerlege ich deine Aussage und du lernst was.

Mimir schrieb:
Mit generativer KI wäre das nicht möglich, weil neue inhalte, neue Details generiert werden, die dann nichts mehr mit dem referenzbild zu tun haben würden.
Aber das Hochskalieren ist doch eine ganz klassische Aufgabe von generativer KI. Wie kommst du darauf, dass das nichts mehr mit dem Referenzbild zu tun hätte?

Ich vermute, dass du einfach nicht verstehst, was generative KI ist.

Du scheinst mir nicht zu glauben. Ok, im Internet sind viele, die keine Ahnung haben und trotzdem auf ihrer falschen Meinung bestehen. Das sieht man ja auch an dir selbst. Lass uns doch mal schauen, was Nvidia dazu sagt. Die sollten sich mit generativer KI im Allgemeinen und DLSS im Speziellen auskennen.
Previously, DLSS used Convolutional Neural Networks (CNNs) to generate new pixels by analyzing localized context and tracking changes in those regions over successive frames. After six years of continuous improvements, we’ve reached the limits of what’s possible with the DLSS CNN architecture.

Our new DLSS transformer model uses a vision transformer, enabling self-attention operations to evaluate the relative importance of each pixel across the entire frame, and over multiple frames. Employing double the parameters of the CNN model to achieve a deeper understanding of scenes, the new model generates pixels that offer greater stability, reduced ghosting, higher detail in motion, and smoother edges in a scene.
Quelle: https://www.nvidia.com/en-us/geforce/news/dlss4-multi-frame-generation-ai-innovations/
Hervorhebungen von mir.

Willst du mir also ernsthaft erzählen, dass du dich mit generative AI und DLSS besser auskennst als ich und Nvidia?

Bevor du mit dem Scheinargument kommst, das hätte die Marketingabteilung verfasst und die hätten keine Ahnung von Technik:

NVIDIA DLSS is a new and improved deep learning neural network that boosts frame rates and generates beautiful, sharp images for your games
Quelle: https://github.com/NVIDIA/DLSS
Hervorhebungen von mir.
 
Wo wir gerade bei den Grafikeinstellungen sind.
Wie kann ich denn die fps begrenzen?

Im Grafikmenü sind max 100fps angegeben.

Im Nvidia Treiber habe ich max. 98fps angegeben.

Das Spiel bringt mir aber mehr, sehe ich das beim Punkt GPU richtig oder?

BF6.png
 

Anhänge

  • 1762687862575.png
    1762687862575.png
    65,2 KB · Aufrufe: 42
Zuletzt bearbeitet:
Pinguin1 schrieb:
Wie kann ich denn die fps begrenzen?
Im Spiel direkt irgendwo im erweiterten Grafikmenü oder eben Treiber/Externe Software.
Du solltest nicht zwei Limits direkt nebeneinander legen.
In dem Fall sind deine realen FPS oben bei CPU, die Grafikkarte könnte nur schneller.
 
Bei FHD DLSS4 Quality.
FPS ingame limitieren. Die Anzeige zeigt dir welche Komponente wieviel liefert/liefern könnte. Ganz nice um zu sehen was bremst.
 
  • Gefällt mir
Reaktionen: Pinguin1
@bogge101
Danke, aber das Programm habe ich schon länger nicht mehr installiert und habe es auch nicht vor.

@Stormfirebird
Auch dir danke.
Dann passt es ja fast, mit den 100fps :)
Wusste jetzt nicht was real am Bildschirm ankommt, CPU oder GPU...

@Pro_Bro
Ja, bei BF6 habe ich 2 Optionen um die fps einzubremsen.
 
adfsrg schrieb:
Alte Daten enthalten aber doch gar nicht die Informationen, die im neuen Frame benötigt werden. Wären diese Daten in den alten Frames vollständig enthalten, dann brauchte man gar keine KI. Du bräuchtest noch nicht einmal eine Renderingengine.
Grundsätzliche Verfahren der digitalen Bildverarbeitung ein höher aufgelöstes Bild aus einer Sequenz von niedriger aufgelösten Bildern zu erzeugen, sind seit über 40 Jahren bekannt. Das gleiche Ziel, einen höher aufgelösten aktuellen Frame mit Hilfe der Information aus vorherigen Frames zu erzeugen, hat auch DLSS. Dafür müssen die vorherigen Frames nicht vollständig alle Bildinhalte des aktuellen Frames enthalten. Da wo keine Bildinformationen aus vorherigen Frames vorhanden sind "erfindet" DLSS auch nicht neue Pixel, sondern es wird an diesen Stellen das unveränderte aktuelle Bild sichtbar. Das ist z.B. bei einem schnellen Bildwechsel oder bei schnellen Bewegungen der Fall. Die gleichen Limitationen sind auch in nicht KI unterstützen temporalen Verfahren wie TAA und FSR2+3 zu beobachten. In DLSS wird KI also hauptsächlich dafür eingesetzt Bildinformation aus vorherigen Frames dem aktuellen Frame mit Subpixel-Genauigkeit zuzuordnen um die Auflösung zu verbessen. Natürlich funktioniert das nicht perfekt und es treten dabei oft die bekannten Artefakte temporaler Verfahren wie Schlieren und Moirés auf. Die gleichen Probleme haben aber auch die nicht KI unterstützen Techniken wie TAA, TSR und FSR2+3.
Wenn man also empfiehlt kein DLSS oder DLAA zu verwenden, dann muss man auch konsequent sein und empfehlen grundsätzlich keine temporalen Verfahren wie TAA zu verwenden, weil dort praktisch die gleichen Artefakte auftreten. Für die allermeisten Leute dürfte allerdings das Bild in BF6 ohne jegliches Antialiasing zu unruhig sein. Die Empfehlung für das beste Bild lautet daher meist DLAA zu verwenden, wenn man kann.

Quellen:
 
  • Gefällt mir
Reaktionen: shreebles und adfsrg
Zurück
Oben