News 3DMark: DLSS-Feature-Test für den Grafikbenchmark

Marflowah schrieb:
Wo landen denn eigentlich die "Ergebnisse" vom DLSS-KI-Training? Auf einem nvidia-Server, die dann in die neuen Treiber fließen?

Was glaubst du denn? Oder landen BMW Fahrzeugdaten bei Daimler... :rolleyes:

Sowohl AMD und NVIDIA wollen (ich hoffe das ist jedem bewusst) aus rein ökonomischer Sicht Ihren eigenen Kram exklusiv vermarkten. Gemeinsam können beide sicherlich Standards realisieren, aber es sind keine NPOs.

Ich finde den Vergleich mit der Formel 1 ganz gut... es werden neue Features implementiert, von der Konkurrenz kopiert und sicher die ein oder andere Sache auch wieder verworfen. Aber nur so können sich neue Techniken auf lange Sicht durchsetzen.
 
  • Gefällt mir
Reaktionen: bundesburger, Lübke82 und .Sentinel.
@ZeroZerp

jemand der es nicht verstehen will wirst du die Technik und Intention dahinter kaum erklären können. Ich bin da eher schockiert über den kleinen Tellerrand mancher Schreiberlinge hier.
Neuronale Netzwerke eröffnen viele interessante Gebiete im Bereich Grafik. Besseres Upscaling wie bei DLSS ist ja nur eins davon. DLSS soll ja auch noch für dieselbe Auflösung quasi als besseres AA kommen.

Darüber hinaus wäre es auch denkbar Zwischenbilder zu berechnen (wie es jeder TV heute tut), oder auch die sonst sehr statischen Grafik Presets intelligent justieren um auf eine Target Framerate zu kommen.

Die Tensor Kerne dahinter ermöglichen ja nur die hinreichend schnelle Berechnung des neuroalen Netzwerk - das macht die Sache natürlich etwas proprietär. Wäre jenes statisch anwendbar, wie z.B. bei der Zwischenbild Berechnung im TV, dann presst man dieses Neuronale Netzwerk erst in einen FPGA und später in gegossenes Chipdesign und damit statischer Logik.
Ergänzung ()

Marflowah schrieb:
Wo landen denn eigentlich die "Ergebnisse" vom DLSS-KI-Training? Auf einem nvidia-Server, die dann in die neuen Treiber fließen?

Oder auf einen offenen Server,(da es ja ein offener Standard sein und auch für Vulkan funktionieren soll? Oder bezieht dich das nur auf DXR?

wie meinst du offener Server? Das würde denke ich wenig bringen. Da gibt es nicht so einfach "Ergebnisse" wie man sich das vorstellt.

1. musst du dein Neuronales Netzwerk definieren, das ist die eigentliche Kunst für sich. Welchen Input, welche Layer usw.
2. du lernst dieses an. Am Ende vom Tag hast du für dein zuvor definiertes Netzwerk zb einen Satz mit 1 Mio Gewichtungen für die Knoten im neuronalen Netzwerk, zb einen Wertesatz für Final Fantasy X. Nvidia spielt dir diesen Wertesatz zu. Dieser wird bei der Berechnung von DLSS über Tensor Kerne verwendet.
3. es dürfte wenig bis kaum wirklich sinnig teilbare Information geben. Ggf liesen sich die 64x Super Sampled Testbilder + Low Res Bild teilen sodass andere eigene Netzwerke trainieren könnten ja.

Passt Nvidia das Netzwerk an muss man neu anlernen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: t3chn0, .Sentinel., Esenel und eine weitere Person
Okay, dann haben wir jetzt Raytracing in einem Benchmark und einem Game, in dem man es sowieso eher deaktiviert. Und wir haben DLSS in einem Benchmark und einem Game das wie immer so schlecht optimiert wurde, dass es sogar sinnvoll ist.

Kommt dann zur nächsten Generation je ein weiteres Game für die Features?
 
Illunia schrieb:
Okay, dann haben wir jetzt Raytracing in einem Benchmark und einem Game, in dem man es sowieso eher deaktiviert. Und wir haben DLSS in einem Benchmark und einem Game das wie immer so schlecht optimiert wurde, dass es sogar sinnvoll ist.

Kommt dann zur nächsten Generation je ein weiteres Game für die Features?
Aller Anfang ist schwer. Geduld ist auch nicht jedem gegeben. Und ich schalte die großartigste Entwicklung im Spiele Graphik Bereich bestimmt nicht ab. Oh nein. Im Leben nicht!
 
Es ist faszinierend wie immer die gleichen Leute hier schlechte Laune und negative Stimmung verbreiten.

Eine reine Technikdiskussion unmöglich...
...trauriger Haufen...
 
  • Gefällt mir
Reaktionen: Mumusud, t3chn0, Jens1882 und 3 andere
Ich denke die Leute wären für das ganze Zeug schon offen, wenn Nvidia nicht so unverschämt dafür abkassieren würde.
Aber einfach nur viel Geld verlangen ohne daß die Dinge zu nutzen sind, geht einfach nicht.
 
Jens1882 schrieb:
@schade das du auf meine frage nicht geantwortet hasst von wegen microsoft und nvidia arbeiten zusammen damit nvidia ein vorteil auf amd hat :D

Ich beantworte das mal für Dich.
Microsoft, NVIDIA und AMD haben DX12 zusammen entwickelt und umgesetzt.

Zitat:
AMD collaboration

HEXUS received an email bulletin from AMD about its own work on Microsoft's DirectX Raytracing API. It said that it was "closely collaborating with Microsoft," on the future of the API. More specifically it is helping to "define, refine and support the future of DirectX12 and ray tracing".

Ist halt der typische Bias, den hier einige mit aller Gewalt wieder versuchen einfliessen zu lassen.

Wenn sich die Kritiker hier grundsätzlich mal bevor sie schreiben nur 2 Sekunden vorher mit den Themen auseinandersetzen und recherchieren würden, von was sie da schreiben, könnte man sich hier 90% der Diskussionen sparen.

Die Kritik basiert hier überwiegend auf irgendeinem Firmenfetisch, ohne auf das Wesentliche, nämlich die Technik von DLSS, deren derzeitigen Stand und Zukünftmöglichkeiten einzugehen.
Zudem auf völlig abstruse und von der Realität weit entfernte Anforderungshaltung, wie so eine Technik bei den Usern eingeführt werden muss.
Bildraten bei Full- Screen Raytracing wie bei Port-Royale bei 60 FPS und mehr in WQHD werden dann schonmal schnell als "inakzeptabel" gesehen, obwohl mnn vielleicht vor Kurzem noch auf der PS3 oder XBOX genüsslich seinen Spaß bei 30FPS hatte. Und ab da wirds halt einfach irgendwann lächerlich.

Es ist in ALLEN Bereichen der Technik so, dass sie irgendwann mal starten muss.
Dann gibts die für Teuer Geld und natürlich nicht so ausgereift wie nach der X- Ten Iteration zu kaufen und irgendwann schaukelt sich das ganze ein.
Hier im Thread tun dann einige Leute "künstlich" so, als ob dem nicht so sei und das frühe Bereitstellen der Technik "Abzocke" und Co seien.

Mag ja durchaus sein, dass manche, die neu in der Thematik der Entwicklung von Technologien auf dem Computermarkt sind, tatsächlich so empfinden. Nur entbehrt das eben jeder realen Grundlage.

Grüße
Zero
Ergänzung ()

grossernagus schrieb:
Ich denke die Leute wären für das ganze Zeug schon offen, wenn Nvidia nicht so unverschämt dafür abkassieren würde.
Du unterstellst, dass sie die Leute über den Tisch ziehen und das in einer unverschämten Höhe.
Jetzt bin ich mal auf den Beleg, die Beweisführung bzw. Argumentation gespannt.

Aber einfach nur viel Geld verlangen ohne daß die Dinge zu nutzen sind, geht einfach nicht.
Doch- Weil sich der wohlinformierte und mündige Konsument vor dem Kauf informieren kann, was er da für "unverschämtes Geld" kaufen will.
Und nach dem Kauf, kann er, ohne dass ihn die hier viel zitierte unheilige Allianz aus Presse und Marketing beeinflussen kann, das Ding sogar zwei Wochen in seinen eigenen vier Wänden testen.

Somit ist es garnicht möglich, dem Kunden hier etwas für ihn Unnützes unterzujubeln, wie es hier gebetsmühlenartig runtergeleiert wird, esseidenn der Käufer betrügt sich selbst.

Grüße
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Moriendor, Laphonso, bundesburger und 4 andere
Esenel schrieb:
Eine reine Technikdiskussion unmöglich...
...trauriger Haufen...
Das Schlimme daran ist, dass es eigentlich vollkommen egal ist, wovon die News handelt. Spätestens auf Seite 2 geht es nur noch um den Grabenkrieg zwischen Befürwortern und Hatern. Das ist auch egal ob Nvidia, AMD, Intel, Amazon, Alexa usw. Gefühlt gibt es hier nur noch Gruppierungen, die sich gegenseitig anfeinden. Und es stehen halt auch wirklich immer dieselben Namen da. Ist ja nicht so, dass man seine "Meinung" schon 100 mal in diversen Threads verbreitet hätte, auch im 101 Thread muss derselbe Kommentar stehen ;)
 
  • Gefällt mir
Reaktionen: Jens1882, Lübke82, pietcux und eine weitere Person
duskstalker schrieb:
so weit, so gut. so bekommt man die sonst teilweise sinnlosen tensor cores beschäftigt und kann mit schwächeren gpus "höhere" auflösungen ausgeben. da gibts ja erstmal nix dran auszusetzen. was ich fast sinnvoller fände, wäre die möglichkeit eines richtigen "super sampling" ohne leistungseinbußen. auf der anderen seite braucht man dafür flächenmäßig eine riesige gpu und die AI muss erstmal von nvidia gefüttert werden. gemessen am aufwand für bissl besseres upscaling ist das für mich eher ne spielerei. ich find dlss an sich aber nicht kacke.
Danke Duskstalker- Der Absatz spricht mir aus der Seele. Die sollen endlich das ebenso lang angekündigte DLSSx2 rausbringen, welches ja bezüglich Rechenzeit "kostenloses" Antialias bereitstellen soll.

Ist für den einen oder anderen sicher die interessantere Option.

LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: pietcux
Phear schrieb:
Das Schlimme daran ist, dass es eigentlich vollkommen egal ist, wovon die News handelt. Spätestens auf Seite 2 geht es nur noch um den Grabenkrieg zwischen Befürwortern und Hatern. Das ist auch egal ob Nvidia, AMD, Intel, Amazon, Alexa usw. Gefühlt gibt es hier nur noch Gruppierungen, die sich gegenseitig anfeinden.

Influencer müssen halt Arbeiten damit se was bekommen :) :) :) :)
 
Phear schrieb:
Das Schlimme daran ist, dass es eigentlich vollkommen egal ist, wovon ... wirklich immer dieselben Namen da. Ist ja nicht so, dass man seine "Meinung" schon 100 mal in diversen Threads verbreitet hätte, auch im 101 Thread muss derselbe Kommentar stehen ;)
Weisst Du Phear, Kritik ist gut und wichtig.
Nur gleitet die Kritik hier immer weg von der Sachfrage in Richtung eines allgemeinen Rundumschlages, der hier Themenbezogen garnichts mit dem Thread zu tun hat.

Ala "sowieso Betrüger","zu teuer","proprietär" etc.
Man holt also aus der hinterletzten Ecke irgendwelche Dinge hervor, um die es garnicht geht bzw. die nicht sachbezogen sind und zudem unbelegt und ohne argumentative Grundlage einfach in die Runde geworfen werden, nur um schlechte Stimmung zu verbreiten und einen Grabenkrieg anzuzetteln.

Und das ist nicht in Ordnung. Das ist toxisches Verhalten.

Grüße
Zero
 
  • Gefällt mir
Reaktionen: Lübke82, domian und Esenel
Wahrscheinlich mißfällt einigen (wie auch mir) an DLSS (firmenunabhängig!), daß die eindeutige Auflösung bzw die Klarheit darüber gewissermaßen verloren geht. Das Reizvolle am Nativen ist einfach die Eindeutigkeit wie

"Das ist FullHD und fertig." oder
"Das ist 4K und fertig."
Kein "Naja eigentlich ist das nicht wirklich in 4K gerendert sondern nur in QHD und dann mit DLSS hochskaliert."
Wenn das Ergebnis überzeugt, na gut. Trotzdem geht das in so eine Richtung wie "Der Gamer braucht keine Grafikeinstellungen, mit denen er eigenständig experimentiert. Ihm wird eine KI vorgesetzt, die ohnehin klüger ist als er." Hallo Entmündigung.
 
  • Gefällt mir
Reaktionen: paulemannsen und geist4711
Marflowah schrieb:
Wahrscheinlich mißfällt einigen (wie auch mir) an DLSS (firmenunabhängig!), daß die eindeutige Auflösung bzw die Klarheit darüber gewissermaßen verloren geht. Das Reizvolle am Nativen ist einfach die Eindeutigkeit wie

"Das ist FullHD und fertig." oder
"Das ist 4K und fertig."

Da frag ich mich dann aber, was einem dieses Wissen bringt, wenn man dann mit 55FPS in 4K sein Spiel spielt, obwohl man es auch mit 90FPS bei annäherend gleicher Qualität spielen könnte.
Jaha, ich habe vielleicht 40FPS weniger, aber wenigstens ist meine Auflösung nativ. Ja Glückwunsch.

Marflowah schrieb:
"Der Gamer braucht keine Grafikeinstellungen, mit denen er eigenständig experimentiert. Ihm wird eine KI vorgesetzt, die ohnehin klüger ist als er." Hallo Entmündigung.

Naja, ist ja nicht so, dass dem Spieler schon seit zig Jahren Dinge vorgegaukelt werden, die nicht wirklich substanziell da sind. Wenn man ne Ziegelmauer oder Kopfsteinpflaster im Spiel sieht, dann sind das ziemlich sicher auch nicht einzelne Steinobjekte, sondern ein Fläche mit Texturtapete und dazu etwas Shadercode der dies so aussehen lässt wie eine Steinstraße oder -wand. Warum regt sich da keiner auf, dass da keine echten Steinobjekte gesetzt und gerendert werden? Weil die Auflösung stimmt?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: bundesburger, FireRP, Lübke82 und 2 andere
Und ich wette in einem Blindtest würde keiner/kaum einer den Unterschied zwischen nativ und DLSS erkennen.
Dieses Wischi Waschi TAA natürlich mal ausgenommen.

Da wir natürlich aktuell nur Final Fantasy mit bescheidenem TAA und einen einzigen Benchmark haben wirds erst die Zukunft richtig zeigen.

Aber jetzt schon etwas zu verdammen, was noch nicht mal richtig verfügbar ist erschließt sich mir nicht...
 
  • Gefällt mir
Reaktionen: .Sentinel.
DocWindows schrieb:
Da frag ich mich dann aber, was einem dieses Wissen bringt, wenn man dann mit 55FPS in 4K sein Spiel spielt, obwohl man es auch mit 90FPS bei annäherend gleicher Qualität spielen könnte.
Jaha, ich habe vielleicht 40FPS weniger, aber wenigstens ist meine Auflösung nativ. Ja Glückwunsch.
Wenn es nur um annähernd gleiche Qualität geht, stelle ich ein paar Regler runter....
Aber es ist ohnehin Geachmackssache. Ich spreche DLSS nicht den Sinn ab, behalte mir aber das Recht vor, "naive" Auflösungen ehrlicher zu finden. Hoffe das sei mir erlaubt...
 
  • Gefällt mir
Reaktionen: paulemannsen und geist4711
@Marflowah Diese Art von annäherend gleicher Qualität meine ich nicht. Keine die man mit Reglern beeinflussen kann, sondern Abweichungen die durch das neuronale Netz zwangsläufig entstehen. Denn das basiert ja nicht auf starrer Mathematik, sondern teilweise auf Interpretation. Deswegen muss man das Netz auch "anlernen".

Dies kann je nach Sorgfalt möglicherweise sogar bessere Resultate liefern als die starre Mathematik. Der Mensch interpretiert ja ebenfalls gerne. Somit kann ihm das KI-Ergebnis sogar besser gefallen als das streng mathematisch errechnete. Das wird sich natürlich noch herausstellen müssen. Ich bin da aber sehr zuversichtlich, denn auch KI steht meiner Meinung nach noch ziemlich am Anfang der Reise.
 
  • Gefällt mir
Reaktionen: Lübke82, Marflowah und .Sentinel.
Danke für den Hinweis mit dem Sale für 3DMark. Hätte es beinahe gestern für 25€ gekauft.
Ansonsten überlasse ich das (immer Gleiche) AMD VS NVIDIA den Kleinen, die haben ja schließlich Ferien und wollen was erleben im Internet :rolleyes:
 
  • Gefällt mir
Reaktionen: Lübke82
Früher waren Leistungssteigerungen durch Qualitätsverlust Cheaten. Heute ist es ein Feature...
 
  • Gefällt mir
Reaktionen: paulemannsen und geist4711
Zurück
Oben