Bericht Nvidia Turing: Adaptive Shading bringt in Wolfenstein 2 bis zu 13 Prozent

Locuza schrieb:
Wie gesagt, jeder Hersteller hat schon jetzt 1.000 Optionen, um im Hintergrund Schindluder zu betreiben.
Eine Sache mehr ändert wenig an der Situation.
Naja, hier eine Sache, da eine Sache. Das summiert sich.
 
Bärenmarke schrieb:
Für mich ist das schon ein Qualitätsverlust! Ich verstehe auch nicht wieso das hier so viele feiern (du jetzt nicht:D). Ein paar Prozent mehr bei Qualitätsverlusten.... [...]

Wo siehst du denn den Qualitätsverlust? Ernst gemeinte Frage, ich sehe den nämlich nicht. Wenn du da mal mit Paint nen Roten Kreis drüber legen könntest wäre mir tatsächlich geholfen.

Oder ist das eher so ne gefühlte Sache. Nach dem Motto: 'Ich weiß, dass es vorhanden ist, also muss es schlechter sein'?
 
  • Gefällt mir
Reaktionen: .Sentinel.
@Locuza
Ich zitiere mal aus der News:
"Die benötigte Präzision wird mittels eines Post-Processing-Schrittes am Ende des aktuellen Frames für das nächste Frame berechnet ".
Nach dem Frame ist vor dem Frame!

Dass nur Turing das unterstützt wird auch aus der News klar. Deswegen habe ich ja gefragt ob das mit Hardware begründbar ist oder nicht.
 
  • Gefällt mir
Reaktionen: Locuza
So und jetzt packen wir noch mal die Marketingkeule von NV gegen AMD damals bei Crysis2 und Tesselation aus. Damals als jedes Level Wasser mit Tes haben musste und das am stärksten bearbeitetet Objekt eine 0815 Straßensperre war.
Der Shitstorm damals gegen AMD unsichtbares einfach zu optimieren....

In dem Zusammenhang fehlt bei CB noch die News, wo die Lederjacke AMD für seine Restbestände verantwortlich macht. Was erlaube sich AMD.
 
  • Gefällt mir
Reaktionen: Seskahin
Schnefferaunzn schrieb:
Wenn wir schon dabei sind, dann hat AMD schon seit mindestens ein oder zwei Jahren standardmäßig Tesselation nicht auf Anwendungsgesteuert sondern Treibergesteuert stehen, ganz ähnlich wie damals mit der Filterung.
Tesselation wird auch im übertriebenen Maße von vielen Spielen genutzt und ist schädlich für die Performance bei AMD. Die waren die ersten die es konnten, aber dann hat Nvidia nachgezogen, es effizienter gemacht und dann überall in ihre Wamewürgs-Spiele eingebaut um AMD zu bremsen.

Altes aber immer noch aktuelles Beispiel von exzessiver unnötiger Tesselation-Nutzung.

Hairworks funzt auch mit Tesselation.
Deshalb mag Nvidia es auch so, denn es läuft grausig auf AMD.
AMDs Reaktion darauf ist logischerweise,
die meist absolut unnötige Nutzung von Tesselation effizienter zu machen.
 
Zuletzt bearbeitet:
v_ossi schrieb:
Wo siehst du denn den Qualitätsverlust? Ernst gemeinte Frage, ich sehe den nämlich nicht. Wenn du da mal mit Paint nen Roten Kreis drüber legen könntest wäre mir tatsächlich geholfen.

Oder ist das eher so ne gefühlte Sache. Nach dem Motto: 'Ich weiß, dass es vorhanden ist, also muss es schlechter sein'?
Text gelesen? Es gibt jetzt schon bei bestimmten Einstellungen hier und da sichtbare "Probleme".
Vielleicht mag es hier und jetzt nicht das große Problem sein. Doch was passiert in Zukunft? Wenn auf biegen und brechen der Balken länger sein muss?
Es wurde jetzt schon auf die Vergangenheit verwiesen, was bzgl AF geschehen ist.
 
  • Gefällt mir
Reaktionen: Bärenmarke
Leuts, dass übliche nVidia gehate ist schon der Hammer hier...

Zum Verständnis: Das ist kein Feature, dass der Treiber ohne Mitwirkung des Spiels "erzwingen" oder gar "erschleichen" kann. Das Feature selbst ist einfach die Möglichkeit, Shadergenauigkeit dynamisch zu verändern.

Wie das genau genutzt wird, bleibt dem Spiel überlassen.

Warum habt ihr denn das AMD Feature, Shader optional mit 16 bit Genauigkeit zu nutzen, nicht als "Cheaten" verkauft?

Es ist echt der Hammer, mit wie viel Emotion und Missgunst hier immer wieder diskutiert wird. Ihr müsst alle irgendwie einen Knacks im Selbstverständnis haben, dass es Euch so anbläht, wenn die Hass-Firma ein neues Feature anbietet.

(Und das gilt übrigens in beide Richtungen - nur dass ich solche Dinge bei AMD-Exklusiven Features viel seltener sehe...)
 
  • Gefällt mir
Reaktionen: Darkscream, derneuemann, Ben81 und 4 andere
Volkimann schrieb:
Es ist ja nicht erschummelt, zumindest nicht bekannt oder "noch nicht"?

Es muss ja aktiv aktiviert werden, der Anwender überlässt jetzt dem Treiber dynamisch den Qualitätsregler nach links zu schieben. 🙈🙉🙊

Bekannt schon wenn CB eindeutig belegen kann, dass es in Szenen zu einem schlechteren Bild kommen kann.
Dadurch erkenne ich bei der neuen Technik keinen qualitativen Vorteil, auch wenn es sehr ausführlich als etwas neues beworben wird.

Das halte ich auch für zwingend, dass solche Maßnahmen dem Anwender überlassen werden, allerdings auch mit der Aussage, dass die Qualität des Bildes darunter leidet, auch wenn es 5 Stufen geben mag.
CB hat zumindest nicht relativiert, dass in einer Stufe die Geschwindigkeit steigt ohne auf Lasten der Qualität zu gehen.
 
Ich bin dafür zu optimieren, solange kein wahrnehmbarer Qualitätsabfall entsteht!

Generell versuche ich spiele immer auf der bestmöglichen Qualitätsstufe zu spielen, wobei sich gewisse Grafikstile bei jeder Qualitätseinstellung durch ausgeprägte Häßlichkeit charakterisieren lassen, also nicht optimierbar sind und andere, wie Witcher 3 eben, hervorragend aussehen können.

Komplett lebensechte Grafik brauche ich nicht, möchte ich eigentlich auch garnicht haben - ein Computerspiel darf ruhig grafisch erkennbar sein und sollte nur annähernden Fotorealismus bieten, mehr nicht.

Was ich hasse sind grobauflösende, matschige Texturen, vor allem in Pastellfarben, Detailverlust und 3D Objekte, die man nur als absurd deformiert bezeichnen kann.

Ich kann mir jedoch vorstellen, das FPS-Hungrige im Bereich der Reflex-Spiele gerne ein paar Bild-PS mehr mitnehmen, weil man dort die Grafik eh nach unten schraubt.

Und natürlich kann Nvidia auch ein paar mehr Benchmarks noch höher gewinnen...

Und preislich brauchen wir über diese GPUs nicht reden, das letzte mal, das ich vierstellige Summen für meinen PC ausgegeben habe, war in der 386er-Zeit, als eine 40MB Festplatte 1600 DM kostete und ein 21 Zoll Monitor 3500 DM.

Heute ist mein Limit jeweils 300 Euro für CPU, GPU, Monitor und je 150 Euro fürs MB und den Speicher.
Ein gutes Netzteil darf ruhig 100 Euro kosten, denn da zählt Qualität noch vor Preis-Leistung.

Wenn ich nicht schon eine RX480 hätte, würde ich mir eine im Moment RX580 holen.
 
  • Gefällt mir
Reaktionen: Torr Samaho
v_ossi schrieb:
Wo siehst du denn den Qualitätsverlust? Ernst gemeinte Frage, ich sehe den nämlich nicht. Wenn du da mal mit Paint nen Roten Kreis drüber legen könntest wäre mir tatsächlich geholfen.

Oder ist das eher so ne gefühlte Sache. Nach dem Motto: 'Ich weiß, dass es vorhanden ist, also muss es schlechter sein'?

Hast du den Test nicht gelesen, hat doch Wolfgang beschrieben? Von daher kann man da auch einfach die Qualitätsregler nach links schieben und dieses tolle Highend Feature nicht implementieren...
Da wäre das Geld in eine gescheite DX 12 Portierung (nicht auf Wolfenstein bezogen), bei den meisten Entwicklerstudios besser aufgehoben, wo dann auch jeder von profitiert.
 
  • Gefällt mir
Reaktionen: Volkimann
Locuza schrieb:
Schon jetzt ist aber wirklich die dynamische Handhabung der Optik problematisch, wo einige Spiele das Level-of-Detail-System und die Texturauflösung an den verfügbaren VRAM koppeln, was selbst bei gleichen Textur- und Sichtweiteeinstellungen zu unterschiedlichen Ergebnissen führt, wie bei Mirror's Edge Catalyst.
Allerdings, das Spiel hätte mehr Liebe von beiden Seiten verdient, anscheinend doch zu wenig Verkäufe des Prequels und darauf hin keine Entwicklung mehr seitens DICE ...
 
Wolfenstein II ist ja eh schon recht gut optimiert.
Selbst die GXT 1060 packt in UHD (4k) und Ultra Details 25 fps.
Bei anderen Spielen hat man bei der Einstellung eine Diashow.
Daran sieht man halt auch, was manche Spieleentwickeler für Ressourcen verschwenden.
 
ID Tech 6 ist einfach eine der besten und zukunftsfähigsten Engines auf dem Markt.
Ich hätte die gerne in Fallout 76 gesehen, immerhin hat Bethesda die Rechte dafür.
 
Einige sehr gute Kommentare muss ich sagen, danke sehr.

Ich bin zwar AMD Fan habe mir jedoch trotzdem seit kurzem eine Occasion GTX1080 ersteigert. Und ich habe jetzt auch das Gefühl, dass die Spiele dünkler ausgegeben werden und die Texturen minim schlechter sind.
Dies mein persönlicher Eindruck.

Bezogen auf diesen Artikel will ich sagen, dass ich schon immer "Adaptive Shading" genutzt habe. Denn es gilt immer;
Für weniger Grafikqualität -> mehr Performance

Was hat sich jetzt geändert, kann ja gleich etwas runter schrauben oder seht Ihr dann den Unterschied von "Ultra" zu "sehr hoch"?
Ja, muss sagen ich belächle die "Technik".
Würde den Aufwand für Entwicklung und Integration + Support nicht betreiben!
 
Luzifer71 schrieb:
Man bekommt durch CAS ~10% mehr Leistung ohne Qualitätsverlust bzw. muß man mit der Lupe suchen (laut Test).

Manche mögen aber auch wirklich alles schlecht und kaputt reden...
Es geht darum, dass es sich um nichts anderes als noch eine Einstellung mehr für "Regler nach links" handelt, wie es sie schon mehr als genug gibt.
Das Ding aber einen tollen Namen wie CAS bekommt, RTX20xx only ist und ein Haufen Geld kostet.

Aber hey, wenn das für dich die Innovation ist für die Du bereit bist Geld zu bezahlen, dann bitte lass dich nicht aufhalten.

Ich für mich sehe den Mehrwert nicht.

Zum Thema: GTX10xx können kein CAS.
Es klingt ähnlich, wie dass NV Karten angeblich kein Adaptive Sync/Free Sync können und man das teuere GSync kaufen soll.
In wirklichkeit können die es nur der Treiber sagt: "NEIN!".
 
Also ich schließe mich in Bezug auf die Bildqualität da auch Norebo an. Bei den RTX Karten hat mich von Anfang an eher dieses Feature interressiert als Raytracing. Da aber die Preise für mein Nutzungsszenario zu hoch waren/sind, habe ich noch nicht zugeschlagen und tendiere momentan ebenfalls zu ner 580/590 im Hauptrechner.
 
Chillaholic schrieb:
ID Tech 6 ist einfach eine der besten und zukunftsfähigsten Engines auf dem Markt.
Ich hätte die gerne in Fallout 76 gesehen, immerhin hat Bethesda die Rechte dafür.
id Tech 7 wird noch ne Schippe drauf legen ... bei der Vorstellung von Doom Eternal hat man's ja stellenweise schon gesehen! :)
 
Grafikqualität Nvidia vs AMD im Vergleich:

Es gibt da gleich am Anfang einen guten Tip, wie man die Nvidia Farbausgabe besser macht.
 
Gott sei Dank keine fast gleich teuere 1080Ti mehr gekauft und gleich auf eine 2080 gewechselt. Die ganzen neuen Techniken summieren sich und bringen nicht nur neue optische Features sondern auch Leistungsgewinn für umme ;)
 
  • Gefällt mir
Reaktionen: sysrq
NikoNet schrieb:
Früher war das Cheating, heute ist es eine Innovation.
Man erschummelt sich wieder paar Prozent mehr auf einem Balkenvergleich.
Wenn diese Schummelei ohne sichtbare Qualitätsminderung stattfindet, nennt man das Innovation. Richtig.

Ähm, kostenlos ist die Leistung nicht bei einem Preis jenseits 1200€.
Kostenlos in der Hinsicht, als dass für Kritiker der Karte die Zusatzfeatures, die eben entgegen den alten Karten noch Leistungssteigerungen ermöglichen, nicht auf dem Schirm hatten und jetzt durch erste Nutzungsszenarien "greifbar" werden.

Wer sagt denn, dass die GTX10xx das nicht auch hätten können?
Programmierbare Systeme kann man zu so allerlei Dingen treiben.
Die Frage ist, ob sie dann schnell darin sind.

Naja so verkaufen sich die neuen Modelle jetzt noch besser.
Irgendwie muss man den Preis ja rechtfertigen. Dass dieser bar jeder Grundlage erhöht wurde, war ja nur ein Beissreflex derjenigen, die das nicht verstanden haben, was die neuen Karten dann vielleicht doch besser können.
 
  • Gefällt mir
Reaktionen: Schnefferaunzn und guillome
Zurück
Oben