Bericht Nvidia Turing: Adaptive Shading bringt in Wolfenstein 2 bis zu 13 Prozent

Pleasedontkill schrieb:
Was mich dazu bringt was an Gameworks offen ist.
Denn hier hast es richtig erklärt, source manipulierbar jedoch NICHT offen. -> + für AMD! sorry
Was hindert den Entwickler daran, die Source für AMD Karten zu optimieren, wenn diesen ausdrücklich erlaubt ist, die Sourcen zu ändern?

Ist auch ok wenn DICE sich selbst verkauft hat. Das Spiel sieht so gut aus ob RTX on oder off.
DICE hat sich nicht verkauft. Du hast es noch nicht verstanden. DICEs Implementation basiert auf DXR. Das ist eine offene Schnittstelle, die von Micrososft zur Verfügung gestellt wird. DICE kann nunmal nur mit dem arbeiten, was ihnen zur Verfügung steht und da AMD nicht liefert, ist logischer Weise auch kein Aufwand in irgendeine Anpassung geflossen, die ein AMD Äquivalent bieten könnte.
Für DICE ist das ein Prestige- Projekt. Wenn die es hinkriegen die erste gut laufende Unterstützung von Raytracing zu integrieren, dann wird das Produkt für jeden, der sich eine RTX kauft quasi zum Pflichtkauf.
Zudem können sie sich vom Wettbewerb abheben, wenn deren Engine jetzt schon für die Zukunft fit gemacht wird.

Was mich echt ankotzen würde ist wenn folgende Spiele wie "Atomic Heart" die richtig gut aussehen wegen RT nur einem Monopolisten zugute kommen würden. Das obwohl überall möglich.
Du verstehst immernoch nicht, dass DXR offen und ALLEN Herstellern zugänglich ist. Monopolist in Sachen DXR ist nVidia nur so lange, bis AMD oder Intel nachliefert.
Und natürlich wird ein Spiel, das von Grundauf mit Raytracing im Hinterkopf entwickelt wurde, ohne die Technik sichtbar schlechter aussehen. Wenn Raytracing die Grafikqualität nicht deutlich steigern würde, dann müsste man es nicht einführen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: derneuemann
Revan1710 schrieb:
Hier im Falle von Wolfenstein mit Sicherheit lobenswert, aber auch noch nicht aussagekräftig. Interessant wird es bei zukünftigen Spielen, die in Kooperation mit Nvidia entwickelt werden und wie es dort dann implementiert wird und v.a. auch wie die Tests dieser Spiele dann durchgeführt und interpretiert werden.

Naja, für das spezielle Spiel und die Besitzer der 3 RTX Karten (die statistisch gesehen einen irrelevant kleinen Anteil der Spielerschaft darstellen und wahrscheinlich den betriebenen Aufwand überhaupt nicht rechtfertigen) ist es eben doch aussagekräftig.
Aber wenn beim nächsten Test 'Schindluder' betrieben wird, bin ich auch wieder hierfür: :stock:

ZeroZerp schrieb:
Ja- Sie waren ja sogar so dämlich einen Arbeitspunkt zu wählen, bei dem die eigene Hardware deutlich in die Knie geht. Aber- Stimmt. Das war alles Kalkül, damit die Kunden dann die neuen deutlich schnelleren Karten kaufen müssen.

Wenn ich mir selbst in den Fuß schieße ist das doof.
Wenn ich mir selbst in den Fuß schieße und dabei meinem ärgsten Feind beide Beine abtrenne ist das ein kalkulierbares Risiko.

In Anbetracht von Nvidias Geschichte, finde ich deine 'Tralalala; kein Unternehmen in dieser Welt will mir was Schlechtes' Einstellung doch recht naiv.

ZeroZerp schrieb:
Mich wundert immer, dass die Leute einerseits 4K in 120Hz brauchen, es ihnen aber dann komischer Weise garnicht auffällt, wenn die hälfte ihres Bildes mit niedrig aufgelösten, fehlerhaften und nicht in der Bildwiederholfrequenz des Renderings dargestellten Fakeffekten gepflastert sind und das dann aber gutgeheissen weil ja die Framerate obengehalten wird.

Das könnte daran liegen, dass 'die Leute' nicht stundenlang statisch herumstehen und in Pfützen starren, sondern die Spiele -Achtung- aktiv spielen. Da fallen viele niedrig aufgelöste, fehlerhafte und nicht in der Bildwiederholfrequenz des Renderings dargestellten Fakeffekte schlicht und einfach nicht auf.
 
v_ossi schrieb:
Wenn ich mir selbst in den Fuß schieße ist das doof.
Wenn ich mir selbst in den Fuß schieße und dabei aber meinem ärgsten Feind beide Beine abtrenne ist das ein kalkulierbares Risiko.

In Anbetracht von Nvidias Geschichte, finde ich deine 'Tralalala; kein Unternehmen in dieser Welt will mir was Schlechtes' Einstellung doch recht naiv.
Ja- So hat jeder seine Ansichten. Und meine Einstellung ist, dass die Unternehmen an sich schon immer alle auf ihren Vorteil schauen (TressFX und Hairworks ist da ein sehr schönes Beispiel), da diese Unternehmen Gewinn erwirtschaften müssen.
Eine Negativ- bzw. konsumentenfeindliche Haltung unterstelle ich aber nicht durchgängig.
Es wird auch abseits der gewollten Dinge eben auch Versehen geben oder Dinge, die man in der ein oder anderen Richtung nicht beabsichtigt hat.
Und gerade bei Entwicklerstudios gibt es oftmals noch tatsächlich so etwas wie die Einstellung, dass man einfach ein wirklich tolles Spiel generieren will. Und diesen unterstelle ich eine kalkulierbare Böswilligkeit, wenn es Richtung Hardwareschlacht geht eben nicht grundsätzlich.

Das könnte daran liegen, dass 'die Leute' nicht stundenlang statisch herumstehen und in Pfützen starren, sondern die Spiele -Achtung- aktiv spielen. Da fallen viele niedrig aufgelöste, fehlerhafte und nicht in der Bildwiederholfrequenz des Renderings dargestellten Fakeffekte schlicht und einfach nicht auf.
Genau darauf will ich raus. Das sind aber eben auch genau die Leute die andererseits angeblich Tränen in die Augen kriegen, wenn die Framerate unter 120FPS fällt. Oder das Bild nicht mindestens in 4K aufgelöst wird.

Das widerspricht sich einfach einesteils an der Grenze der Sehfähigkeit minimale Veränderungen übergroß registrieren zu können, die Dinge, die die Qualität 100x schwerer negativ beeinflussen dann aber akzeptieren, weil sie ja im Eifer des Gefechts nicht auffallen würden.
 
ZeroZerp schrieb:
[...]Eine Negativ- bzw. konsumentenfeindliche Haltung unterstelle ich aber nicht durchgängig.

Mache ich auch nicht, sonst hätte ich den Test hier und die Technik ja nicht mehrfach gelobt, sondern hätte in die gleiche Kerbe geschlagen wie einige Andere.

ZeroZerp schrieb:
Es wird auch abseits der gewollten Dinge eben auch Versehen geben oder Dinge, die man in der ein oder anderen Richtung nicht beabsichtigt hat.

Auch das ist sicherlich richtig, aber es ist schon bedenklich, wenn gewisse 'Versehen' immer wieder geschehen. Und da finde ich es eben auch komisch, dass bei dir bei einigen Herstellern so gar keine Skepsis aufkommt, sondern immer das Beste unterstellt wird oder eben 'unbeabsichtigte Versehen' schuld sind.

ZeroZerp schrieb:
[...]Genau darauf will ich raus. Das sind aber eben auch genau die Leute die andererseits angeblich Tränen in die Augen kriegen, wenn die Framerate unter 120FPS fällt. Oder das Bild nicht mindestens in 4K aufgelöst wird.

Das widerspricht sich einfach einesteils an der Grenze der Sehfähigkeit minimale Veränderungen übergroß registrieren zu können, die Dinge, die die Qualität 100x schwerer negativ beeinflussen dann aber akzeptieren, weil sie ja im Eifer des Gefechts nicht auffallen würden.

Das widerspricht sich überhaupt nicht. Es kann doch jeder selber entscheiden, worauf er/sie mehr wert legt. Maximale Framerate, höchste Bildqualität oder ne 'gesunde' Mischung.
Wenn ich beispielsweise 4k/60 haben will, schraube ich eben die Qualität so weit runter, bis ich da bin. Wenn ich dabei zu viel BQ einbüße, gehe ich eben auf 1800p runter, weil das in meinen Augen noch ein guter Kompromiss ohne großen Qualitätsverlust ist.
Ich hab meine GPU sogar schon mal bei ~80% Auslastung und ohne maximale Qualitätsstufe laufen lassen, weil mir darüber keine sichtbaren Verbesserungen mehr aufgefallen sind und ich meine 60fps eh immer hatte.

Who cares... soll doch Jeder handhaben, wie er will.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Grestorn schrieb:
Wolfenstein II ist Vulcan, nicht DX12
Das heißt Adaptive Shading braucht kein DX12. Würde es auch mit DX11 funktionieren ist mein Gedanke. Dann könnte Ubisoft.com sowas noch in Wildlands oder die aktuellen Assasins Creed produkte reinpatchen. Wenn es jedoch nur mit DX12 und Vulkan läuft eben nicht.
 
@Wadenbeisser
Warum soll ich das nachlesen? Du wusstest nicht was culling ausmacht.

Schreibe doch einfach dass es dir egal ist was nvidia treibt weil dir ganz warm ums Herz wird zum elitären Kreis der Geforce Besitzer zu gehören...

Man kann auch sachlich diskutieren, davon abgesehen nutze ich schon seit Jahren fast ausschließlich nur Radeons wegen OpenCl.
 
  • Gefällt mir
Reaktionen: pietcux
v_ossi schrieb:
Auch das ist sicherlich richtig, aber es ist schon bedenklich, wenn gewisse 'Versehen' immer wieder geschehen. Und da finde ich es eben auch komisch, dass bei dir bei einigen Herstellern so gar keine Skepsis aufkommt, sondern immer das Beste unterstellt wird oder eben 'unbeabsichtigte Versehen' schuld sind.
Da bin ich voll und ganz bei Dir. Wie gesagt- Dass der Hersteller sein Produkt ins beste Licht rücken will, ist ja garkeine Frage und auch kein Punkt, der in meinen Augen irgendwie empörenswert wäre (siehe Hairworks/TressFX). Der eine nutzt "zufälligerweise" die Compute- Schwäche aus, der andere die Tesselation- Schwäche.

Ne andere Nummer ist es aber schon, dem Entwickler zu unterstellen, dass er von nVidia dahingehend bestochen wurde, das Konkurrenzprodukt absichtlich in dem maximal möglich schlechten Licht darzustellen.
Und davon wird hier von einigen wie selbstverständlich ausgegangen.
Die Qualität dieser Anschuldigung ist eine ganz eine andere...

Die Entwickler haben ein extrem hohes Interesse daran, dass ihr Produkt schnell und reibungslos läuft. Und das mit möglichst niedrigen Systemanforderungen um eine maximale Reichweite erzielen zu können.
Dass diese, nur weil ein Hersteller mal mit Geldscheinen winkt, ihre eigene Existenzgrundlage und ihren gesamten Ruf dafür aufs Spiel setzen, mag ich nicht so recht glauben.

Denn das wäre für den Eigennutzen die denkbar schlechteste Option. Somit spricht einfach viel gegen die unbelegte Theorie, dass die Entwickler von nVidia dahingehend gekauft sind, dass gezielt die Performance des eigenen Produktes manipuliert wird.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Schnefferaunzn, derneuemann und Grestorn
ZeroZerp schrieb:
Die Entwickler haben ein extrem hohes Interesse daran, dass ihr Produkt schnell und reibungslos läuft. Und das mit möglichst niedrigen Systemanforderungen um eine maximale Reichweite erzielen zu können.

Ist das nicht gerade im Falle von Adaptive Shading problematisch ? Es ist doch sehr verlockend ein solches Feature zu nutzen, um zum Release für zumindest ein Teil der Spieler die gewünschte Performance zu erzielen. Damit hätte das Studio noch nicht mal etwas Unrechtes getan, es läuft auf RTX-Karten ja lediglich besser.

Bei den Tests zum Release kommt man dann bspw. zu dem Ergebnis, dass nur mit Turing-Karten das Spiel mit über 60 Fps in 4k läuft. Selbst, wenn dann später ein Patch zur Verbesserung der Performance für alle anderen GPUs kommt, ist das Kind dann schon in den Brunnen gefallen. Das Spiel wäre damit die ideale Werbung für eine RTX-Karte, ohne dass das Entwicklerstudio diese Absicht gehabt hätte.
 
  • Gefällt mir
Reaktionen: v_ossi
Und wieso wäre das bei anderen, Modell-Exklusiven Optimierungen, die es ja schon immer gab, anders? Oder weniger problematisch?
 
Behaupte ich ja garnicht, das ist bei all diesen exklusiven Optimierungen ein Problem. Als Maßstab dient doch immer ein Benchmark und wenn Karte A besser performt als Karte B dann suggeriert das für mich erstmal, dass Karte A besser als B ist und nicht, dass für das Spiel A-exklusive Optimierungen vorgenommen wurden.
 
Das hast Du immer. Benchmarks gelten immer nur für ein Spiel.

Bei Spiel A mag Karte N vor Karte D liegen, und bei Spiel B ist es andersrum. Alleine die Speicherausstattung ist da oft ein Faktor, andere Vor- und Nachteile der Karten kommen dazu. Da ist die Austattung mit Features und deren Support im Spiel nur ein weiterer von vielen Faktoren.
 
  • Gefällt mir
Reaktionen: derneuemann
pietcux schrieb:
Genau mit einer RTX 2050/2060 ist diese neue Funktion viel interssanter als mit den momentan erhältliche RTX Karten. Zumindest bezüglich Wolfenstein. Läuft das eigentlich auch nur mit DX 12?

Nein.

(nicht herrlich auch mal einen kurzen Satz zu lesen?)
 
@Grestorn
Genau deshalb wird es doch immer schwieriger sich ein richtiges Bild zu machen. Wieso läuft das Spiel mit Karte A besser als B ? Liegt es an der eigentlichen Hardware, an speziellen Anforderungen des Spiels, an den Einstellungen, die für das Spiel vorgenommen wurden oder weil es für Karte A optimiert entwickelt wurde?

Mit Sicherheit eine Kombination von allem. Wenn du den Vergleich dann noch über mehrere Spiele haben willst, spielt die Auswahl dieser dann auch noch eine große Rolle.

Ein Feature wie Adaptive Shading begrüße ich schon, es hat aber eben auch den faden Beigeschmack, dass die Vergleiche damit zunehmend intransparent werden, wie bei allen exklusiven Features
 
  • Gefällt mir
Reaktionen: v_ossi und Pleasedontkill
Wenn AMD das Feature auch unterstützt - und nichts hindert sie - dann profitieren alle davon.

Die Alternative wäre ja Stillstand.

Im Prinzip hat's AMD ja vorgemacht, mit der optionalen wählbaren Genauigkeit von Shadern. NVidia hat letztlich nur darauf aufgebaut und es einen Schritt weitergeführt. Zumindest, wenn ich die Technik richtig verstanden habe.
 
  • Gefällt mir
Reaktionen: Revan1710
ZeroZerp schrieb:
....
Du verstehst immernoch nicht, dass DXR offen und ALLEN Herstellern zugänglich ist. Monopolist in Sachen DXR ist nVidia nur so lange, bis AMD oder Intel nachliefert.
Und natürlich wird ein Spiel, das von Grundauf mit Raytracing im Hinterkopf entwickelt wurde, ohne die Technik sichtbar schlechter aussehen. Wenn Raytracing die Grafikqualität nicht deutlich steigern würde, dann müsste man es nicht einführen.

DXR ist offener DX12 Standard.
RTX nicht!
 
RTX ist kein Standard (und damit weder offen noch proprietär) sondern eine Implementierung des offenen DXR Standards und außerdem noch ein Markenname.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Revan1710 schrieb:
@Grestorn
.....
Ein Feature wie Adaptive Shading begrüße ich schon, es hat aber eben auch den faden Beigeschmack, dass die Vergleiche damit zunehmend intransparent werden, wie bei allen exklusiven Features

Du meinst, könnte man auch einfach so laufen lassen ohne eine Option zu haben?
Ergänzung ()

Grestorn schrieb:
RTX ist kein Standard sondern eine Implementierung von DXR und ein Markenname.

Oh contraire.
Da erinnere ich mich an was anderes.
Hinter NVidias RTX steckt eine Erweiterung des Standards.

Folglich bedeutet das: DXR läuft auf RTX aber nicht umgekehrt.
Wenn einer mich berichtigen möchte wäre ich um Quellen angaben ohne Interpretationsfreiraum froh.
 
Ich habe ausschließlich genau gelesen, dass NVidia DXR umsetzt. Nirgendwo, dass RTX eine Erweiterung von DXR wäre. Es ist eher an Dir, diese Behauptung zu belegen, die Du ständig wiederholst.

Aber ich bin ja nicht so:

https://en.wikipedia.org/wiki/Nvidia_RTX
 
Grestorn schrieb:
Wenn AMD das Feature auch unterstützt - und nichts hindert sie - dann profitieren alle davon.
Das fände ich gut, sie bräuchten aber wohl ihre eigene Implementation und da liegt es wieder an den Spiele-Entwicklern diese auch einzubinden, wie es die Wolfenstein-Jungs hier vorbildlich gemacht haben.

Pleasedontkill schrieb:
Du meinst, könnte man auch einfach so laufen lassen ohne eine Option zu haben?

Es zwingt sie ja keiner dazu das Feature optional zu machen oder zumindest können sie es per Default aktiviert haben. Genauso könnte eine Seite wie CB ihre Benchmarks ja auch mit aktiviertem CAS durchführen, wobei ich das eher bezweifeln würde.
 
  • Gefällt mir
Reaktionen: Pleasedontkill
Zurück
Oben