Technik, Zukunft und Potenziale der Turing Architektur (keine Marken-/Firmen-/Preisdiskussion)

.Sentinel.

Admiral
Registriert
Okt. 2007
Beiträge
8.623
Hallo liebe Grafik- Enthusiasten,

Zuerst mal der Übersicht halber eine kleine Zusammenfassung aller erschienenen und bis jetzt angekündigten Raytracing- Titel:

Achtung- Wird seit 01/2020 nicht mehr gepflegt!

TitelErscheinungsdatum
AbductedErschienen - Betaversion
AMID EvilErschienen / Raytracing wird nachgereicht
Assetto Corsa CompetizioneErschienen - Q3/Q4 2019/Raytracing angekündigt
Atomic HeartOn or before 31.12.2019
Battlefield 5Erschienen
Bright MemoryRT wird nachgereicht
Boundary2020
Call of Duty Modern WarfareErschienen
CHERNOBYLITE16.10.2019 - RT Unterstützung lt. Entwickler geplant
ControlErschienen
Convollaria2020
Cyberpunk 207716.04.2020
Deliver us the moonErschienen
Diode2021
Doom Eternal22.11.2019
Dragon HoundUnbekannt
Dying Light 2Raytracing Integration bestätigt
Ember StormUnbekannt
EnlistedUnbekannt
F.I.S.T.Unbekannt
Ghostrunner2020
GrimmstarUnbekannt
Halo InfiniteRay Tracing Integration bestätigt
JusticeErschienen - Raytracing Implementierung unbekannt
JX3Unbekannt
Martha is deadUnbekannt
Mechwarrior 510.12.2019 / RT Support wird 2020 nachgeliefert
Metro ExodusErschienen
Minecraft Raytraced2020
Project X2021
Quake 2 RaytracedErschienen
Ring of ElysiumErschienen / RT Support wird nachgeliefert
Shadow of the Tomb RaiderErschienen
Stay in the lightErschienen- Early access
Sword and Fairy 7Unbekannt
Synced:Off-Planet2020
Tales of Tomorrow: Experiment2020
Vampire: Die Maskerade Bloodlines 22020
Watch Dogs: Legion06.03.2020
Wolfenstein Youngblood26.07.2019 - RT wird nachgereicht
World of Warcraft:Shadowland2020
Xuan-Yuan Sword VIIUnbekannt



Dies hier ist ein Thread, der sich nur um die Technik und die Potenziale der neuen Turing- Architektur, zukünftiger Architekturen und die Zukunft des Renderings (Raytracing) an sich dreht.


Alle Beiträge, die persönlich beleidigend oder abwertend sind, die nicht technisch bezogen sind (Marken- Hate/Fanboys/Preisdiskussionen) werden von mir sofort gemeldet und hoffentlich von der Moderation gelöscht.

Als Basis möchte ich auch Diskussionsgrundlagen liefern.

Entgegen des bisherigen "weiter so" hat nVidia sich entschieden (vielleicht arbeitet auch AMD gerade daran), die Art und Weise der Datenverarbeitung und der Darstellung von Objekten mittels einer neuen Architektur inklusive Hilfsprozessoren drastisch zu ändern.

Man wagt den Schritt von Rastertechnik basierter Darstellung auf einen Hybrid mit Raytracing- Möglichkeiten.
Man spendiert der Karte eine Batterie an speziell für Raytracing- Aufgaben angepasste Prozessoren inklusive Einheiten, die für maschinelles Lernen zuständig sind.

Zudem bietet man Optionen, um die Art und Weise der Verarbeitung der Renderdaten vom Prozessor auf die GPU zu verlagern.

Hier zum White- Paper:
https://www.nvidia.com/content/dam/...ure/NVIDIA-Turing-Architecture-Whitepaper.pdf


Nachdem das Thema Raytracing schon x- Mal abgehandelt wurde, erspare ich mir diesbezüglich weitere Ausführungen und bringe nur ein Beispiel für die Verwendung der Technik.



Also widmen wir uns den Tensor- Cores. Auch hier werde ich nicht auf die (langweilige) Theorie eingehen, sondern einfach zeigen, was damit möglich ist (Beispiele werden laufend erweitert, bin für Vorschläge offen):

-Bildmanipulation (AA, Entrauschen, Supersampling, Zwischenbildberechnung):

-AI

-Animationen/AI Szenenmanipulation:
https://www.youtube.com/watch?v=cEBgi6QYDhQ
https://www.youtube.com/watch?v=GRQuRcpf5Gc

-Materialien (Texturen/Physik):
https://wccftech.com/nvidia-gpus-ai-rendering-power-hairworks-aaa-games/
https://www.youtube.com/watch?v=kLVa0NOFdwM
https://www.youtube.com/watch?v=iilqtDkeIBE

-Sound
https://www.youtube.com/watch?v=TXUTgEmnD6U
https://www.youtube.com/watch?v=buU8gPG2cHI

Mit den Tesor- Cores kann man also allerlei mögliches und bis jetzt unmögliches veranstalten.

Man kann Features, die auf der CPU/den ALUs richtig Leistung gekostet haben (z.B. Turf, Hairworks, Waterworks, Material detail shading, Supersampling, Antialias etc.) auslagern, so dass mehr Zeit für andere Aufgaben bleibt.

Auf der RTX 2080 TI stehen einem durch die Tensor- Cores zusätzlich 110 TFLOPs an Rechenleistung zur Verfügung. Für mich stellen die Tensor- Cores die interessanteste Hardware- Neuerung dar.


Zudem werden folgende Technologien zur Verfügung gestellt:


Mesh- Shading:
Auch eine wirklich große Neuerung (ähnlich den primitive shaders von AMD Vega, nur mit etlichen Zusatzfunktionen).
Dadurch wäre es lt. nVidia möglich einfach eine Szene des Spiels in den GPU Speicher zu laden und die GPU kümmert sich komplett selbständig um deren Abarbeitung.
Es wird alles von der GPU übernommen, anstatt dass ein laufendes Wechselspiel mit der CPU stattdfinden muss (Drawcalls). Zudem ermöglicht die Technik eine akute Effizienzsteigerung,
was das Ausblenden von nicht zu berechnenden Objekten betrifft, was es zukünfig möglich machen könnte, komplett auf LODs in den Engines zu verzichten und den Detailgrad schneller und effizienter von der GPU übernehmen zu lassen..

Mesh shading: This is a huge deal. A bit like the "primitive shaders" from AMD vega architecture (wich no one has ever used), but with considerable extra features.
They allow for more programmability from the GPU. The use case nvidia gives is that a game could throw an entire level into GPU memory, and then the GPU deals with all
the rendering of it. Essentially gives you "unlimited" drawcalls, and extremelly efficient culling. With this thing you can render an entire game map in a efficient way
without the CPU doing anything other than the basic gameplay logic. Becouse now AMD and Nvidia support something slightly similar, we might see this becoming a generic feature. In theory,
if games use this feature, you would be able to render incredibly complex game maps with a garbage CPU without losing framerate becouse the CPU is no longer doing the bulk of the rendering logic.



Variable Rate Shading (wird vor Allem VR zu Gute kommen):
Shader können ohne merkliche Einbußen der Qualität in unterschiedlichen Detailstufen laufen.
https://www.youtube.com/watch?v=LCT7pF6HrIg



Multiview Rendering (wird vor Allem VR zu Gute kommen):
Eine Verbesserung der schon in Pascal vorhandenen "Single Pass Stereo"- Funktion. Kann man aber wohl auch dazu misbrauchen mit weniger Drawcalleinsatz Schatten auf herkömmlichen Weg zu generieren.



Texture space shading (wird vor Allem VR und hohen Auflösungen zu Gute kommen):
Aus dem White- Paper:
It allows you to save the lighting on the objects textures at runtime, automatically. This allows things like ultra-expensive shaders getting calculated once and then reused for multiple frames.
I see the most use of this for things like terrain. You would have fancy procedural shaders with 30 textures, and then it just gets baked into the "final" display texture, and the game just keeps
reusing that texture every time. Its not a easy feature to implement, but its very useful for VR as it can remove sparkles on shiny objects and make the rendering cost at super-high-resultion
a LOT cheaper. The technique only has to calculate the texels that you can see, and can update the new texels where it doesnt have texture data.


Da sind für mich interessante Themen dabei, die meiner Meinung nach in der Presse kaum aufgearbeitet wurden und auch vielen Benutzern gänzlich unbekannt sind.


Grüße
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: oeMMes, USB-Kabeljau, Mcr-King und 7 andere
Schmecken tut das nicht.
Was soll das sein ? Outsourceing von Brainpower/Skills ?
Abschöpfen von Ideen ?
etc.
 
@emeraldmine
Ich kann mit Deiner Bemerkung leider nichts anfangen.
Bitte erkläre Dich näher.

Grüße
Zero
 
  • Gefällt mir
Reaktionen: USB-Kabeljau
Kurz geschieben: Der Thread wird doch nicht purer Eigennutz sein ?
 
Zuletzt bearbeitet von einem Moderator:
Der Thread soll, wie bereits oben erwähnt, abseits der immergleichen, leidigen Nebenkriegesschauplätze ein Sammler für die Techniken und deren Potenzial sein, die mit der neuen Generation eingeführt wurden.

Und nein- der Thread ist kein Eigennutz (wie sollte er mir auch nutzen?), außer dass ein Gedankenaustausch stattfindet, der nicht durch Einzeiler geschreddert wird. (Worauf wir uns gerade eben wieder hinbewegen.)

Er soll lediglich den Fokus auf Dinge richten, die man vielleicht jetzt im Zusammenhang mit der neuen Grafikkartengeneration bzw. der Art die Daten zu verarbeiten bis jetzt vielleicht noch nicht so gesehen hat.

Also eine langweilige, unaufgeregte Nerd- Diskussion ;)

Edit:Jetzt hats *klick* gemacht...
Du meinst, dass ich hier eine Art Think- Tank für GPU Hersteller aufbaue -Lach....

Wenn Du den Charakter des Eröffnungsposts ansiehst wirst Du erkennen, dass hier mehr Information geliefert als eingefordert wird.

Ich versuche die neuen Techniken für Interessierte zu übersetzen. Den Nutzen und die Zukunftsaussichten greifbarer zu machen, weil ich mitbekommen habe, dass extrem wenige was mit der neuen Architektur anfangen können, so dass eine Diskussion/Bewertung überhaupt erst möglich wird...

Grüße
Zero
 
Zuletzt bearbeitet:
Da kann ich Dir schreiben, eine Interpolarisation von Pixeln war schon bei alten Flachbrettscannern eine üble Idee,
der ganze Mist ist unscharf geworden. Und mit Präzision hat das nix am Hut. Jetzt geb' ich den "Ball" mal ab.
 
Dann nehme ich den Ball wieder auf- Hab jetzt nochmal ein wenig tiefer gegraben, wofür man das neue Zeug noch so hernehmen kann.

Texturen z.B.
So scheint es in Zukunft möglich aufgrund einer Anleitung den Tensor- Cores mitzuteilen, was die Merkmale von "Holz" sind.
Die Tensor Cores können diese aufgrund des gelernten Musters in sich nicht gleichenden Texturen in die Welt projezieren.
Verknüpft mit den Änderungmöglichkeiten des Materials und AI gesteuerten detail Shadern (Stumpf, voll Moos etc.) kann man dann tatsächlich organische, realistisch aussehende Landschaften/Oberflächen bauen, ohne denn irrwitzigen Erstellungsaufwand und den Speicherverbrauch von Fotogrammetrie bemühen zu müssen.

Die Rastertechnik erkauft sich ihre derzeitige Schönheit durch (wenn auch gut getarnte) Wiederholung, extrem vielen Shader- Zyklen für Materialverschmelzung, detail Shading und enormen Speicherplatzbedarf.

Es wird mit den neuen Möglichkeiten in diversen Bereichen also durch die KI eben nicht mit Filterschema XY inter-/oder extrapoliert, sondern tatsächlich Information anhand des gelernten eingefügt.

Grüße
Zero
 
  • Gefällt mir
Reaktionen: KlaraElfer
ZeroZerp schrieb:
also durch die KI

Der normalo User hat soweit ich gelesen habe gar keinen Zugriff (bzw. eingeschränkten) auf die Cloudbasierende
"AI". Bitte um Richtigstellung wenn ich da falsch liege.

nöhnöh, natürlich KEIN Filter , was ist das überhaupt ?
 
Zuletzt bearbeitet von einem Moderator:
Ausgehend von bekannten Demos scheint das Problem zu sein, das allenfalls die 2080TI die neuen Features zu vielleicht noch akzeptablen Frameraten bereitstellen kann. Besitzer der 2080 und vor allem der 2070 werden mit diesen Features wahrscheinlich keine allzu große Freude haben, und wenn, dann nur mit Kompromissen wie der Reduktion der Bildschirmauflösung.
Demzufolge wird die Schaar derer, die die neuen Möglichkeiten nutzen und genießen können überschaubar bleiben.

Das, was ich bisher gesehen habe, war auch nicht so bahnbrechend, so dass kaum zu erwarten ist, dass Millionen von Gamern die Läden stürmen um diese nicht gerade günstigen Karten zu erwerben.

Entwickler werden das auch wissen und dementsprechend den Aufwand klein halten wollen und müssen.

Will sagen: Entweder bringt Nvidia die Technologie in günstige Karten, inklusive der X050-er, oder das wird nichts.
Ich halte es für einen strategischen Fehler die neuen Features ausgerechnet den teuersten Karten vorzubehalten, da hätte NVidia besser noch mal 2 Jahre gewartet.
 
  • Gefällt mir
Reaktionen: CMDCake
R1ng0 schrieb:
Entwickler werden das auch wissen und dementsprechend den Aufwand klein halten wollen und müssen.
Das interessante an der Konstellation ist ja, dass gerade die Entwickler begeistert sind von den neuen Features.
Klar- Die haben es in Zukunft einfacher anspruchsvolle Dinge wie Lighting, Physik, Culling (ganz wichtig) zu handhaben, weil sie alles einfach auf die GPU schieben und die dann "Wunder" wirken kann.

Ich glaube, dass das eigentlich auch der eigentliche Kern der Aussage "It just works" steckt, was unter entwicklungstechnischen Gesichtspunkten, wenn man die Entwicklerstimmen zum Erscheinen von Turing aufnimmt so wohl auch stimmen kann.

Will sagen: Entweder bringt Nvidia die Technologie in günstige Karten, inklusive der X050-er, oder das wird nichts.
Ich halte es für einen strategischen Fehler die neuen Features ausgerechnet den teuersten Karten vorzubehalten, da hätte NVidia besser noch mal 2 Jahre gewartet.

Da frage ich mich auch, wie nVidia das geplant hatte. Um einen Technologiewechsel einzuleiten braucht man eben auch eine entsprechende Marktdurchdrigung, die sich rein verbreitungstechnisch in ganz anderen Preisgefielden als denen der neuen RTX Karten befinden.

Entweder die haben noch einen "Joker", die Implementationen sind in der Performance noch stark zu steigern, oder sie haben einfach verkackt....

Grüße
Zero
 
Also wo sind eigentlich diese tollen Aussagen das es so einfach zu implementieren ist? Das einzige was ich gefunden hab, war ein Bericht indem es darum ging das nun zusätzlich noch Oberflächen erstellt werden müssen. Alles andere von der Gamescom aus dem Bereich "it just works" ist nichts anderes als Marketing-Gehype-Blubber.
 
ZeroZerp schrieb:
Das interessante an der Konstellation ist ja, dass gerade die Entwickler begeistert sind von den neuen Features.
Klar- Die haben es in Zukunft einfacher anspruchsvolle Dinge wie Lighting, Physik, Culling (ganz wichtig) zu handhaben, weil sie alles einfach auf die GPU schieben und die dann "Wunder" wirken kann.

Klar, die Idee einen Scenegraph einfach in der GPU abzuladen, ist bestechend. Aber dafür müssen die AAA Entwickler erst einmal ihre Engines umschreiben. Und das machen sie nur, wenn der Aufwand im Verhältnis zum Ertrag steht. Das dürfte erst dann der Fall sein wenn das auch auf Brot-und-Butter Karten läuft.
Und wie groß der Gewinn tatsächlich ist, kann ich nicht abschätzen. Bei den CPUs geht der Trend zu mehr Kernen, denen könnte man ja auch etwas zu tun geben, zumal Culling kein Hexenwerk ist.

Auch so gesehen wird hier das Pferd vom falschen Ende aufgezäumt: Eigentlich bräuchte es erst einen Standard, dann dessen Implementierung in Hardware. Klar dass NVidia das anders sieht.

Und AMD hätte echt schlechte Karten, hätten sie sich nicht in den Konsolen festgesetzt. Ich denke, dass die Konsolen eher Chancen hätten, neue Technologies zu etablieren. Nicht nur weil, weil man so auf einen Schlag einen riesigen Kundenstamm erreicht, sondern auch weil da der Innovationsdruck wegen der geringen Resourcen am größten ist.
 
Sowas ist ja jetzt nicht wirklich als negativ zu bewerten:
“It was remarkably easy to integrate ray tracing into Atomic Heart using the NVIDIA RTX platform. As always, NVIDIA provided a great tool set along with their expertise, and GeForce RTX provided the necessary horsepower.” — Robert Bagratuni, CEO, Mundfish

Auch die Aussage von FormatC (Tomshardwarede), dass er bei einem Bierchen mit dem einen ander andern Entwickler authentischen Enthusiasmus ob der Möglichkeiten und der Integration verspürt hat, spricht ja jetzt nicht unbedingt dagegen.

Ich habe selbst die Funktionsbibliotheken der RTX noch nicht in den Fingern gehabt.
Wer aber schon einmal nur spaßeshalber versucht eine der sonst zur Verfügung stehenden Technik (Hairworks, Waveworks) etc. mit den vorgefertigten Libs an eine bestehende Engine anzuflanschen (z.B: UE4 - Ist kostenlos... kann jeder selbst ausprobieren) wird mir zustimmen, dass das schon verhältnismäßig einfach ist.

Soll nicht heissen, dass es bei RTX auch so sein muss, jedoch gehe ich davon aus, dass sie das jetzt nicht damit aufs Spiel setzen, dass die Implementation so übel in die Rasterengine zu integrieren ist, dass es keiner machen will. Wenn es doch kompliziert werden wird, dann wäre das ein weiterer Sargnagel in Sachen RTX.

Allein, dass die Hersteller innerhalb von 2 Wochen was vorzeigbares zaubern konnten (mit Alpha Bilbliotheken und teils sogar mit Stricklösungen, weil entsprechende Tools nicht fertig waren) zeigt, dass es wohl kein Hexenwerk sein kann und man eben nicht wahnsinnig tief in die Assets, das Szenenmanagement oder der Rasterengine an sich eingreifen muss....

Grüße
Zero
 
ZeroZerp schrieb:
(z.B: UE4 - Ist kostenlos... kann jeder selbst ausprobieren)

ja, und wenn du Geld machen willst damit wirst abkassiert.

Hat wer mal bemerkt das sich das mit dem ShaderCache in den Nvidia Treibern irgendwie sagen wir
in Luft aufgelöst hat !? Ich kann mir schwer vorstellen dass da bei 100+ Spielen/Games
nix bei den Shadern tut wie ca. 20-30 MegaByte ?
 
Ist ja auch in Ordnung. Die machen die Engine ja nicht aus Spaß.

Ich meine nur, dass es auch halbwegs begabte schaffen, mit Anleitung die Gameworks- Bibliotheken dranzutackern und dass das jeder ausprobieren kann...

Es ging ja um den Schwierigkeitsgrad das ganze dann umzusetzen. Und wenn da ausgereifte Pakete zur Verfügung stehen, geht das gut.

https://developer.nvidia.com/nvidia-gameworks-and-ue4


Grüße
Zero
 
Zuletzt bearbeitet:
Das Problem dieser neuen Features ist halt, dass sie nur partiell der Allgemeinheit zur Verfügung stehen. Also entweder über eine proprietäre API-/Shader-Erweiterung oder über eine allgemeine API, wie bspw. das Raytracing, das ab Windows 10 - 1809 dann auch allgemein zur Verfügung steht.

Neben der API ist aber vermutlich wichtiger, ob solche Features in die großen, populären Gameengines integriert werden. Das hier sieht ganz gut aus: Cryengine 5.5 unterstützt Raytracing-Schatten
 
  • Gefällt mir
Reaktionen: .Sentinel.
@Faust2011
Das kannte ich noch nicht... Interessant...

Sehe ich aber auch so wie Du. Ist ja auch interessant, dass viele die neuen Funktionen einem PhysX gleichsetzen und zeitgleich nicht wissen, dass die großen Game- Engines sich das inzwischen einfach einverleibt haben und die Bibliotheken nativ in ihren Branches anbieten.
z.B. https://docs.unrealengine.com/en-us/Engine/Physics
https://unity3d.com/de/company/public-relations/news/otee-licenses-agaeia-physx-physics-engine
http://docs.cryengine.com/display/CEMANUAL/Using+NVIDIA+PhysX+in+CRYENGINE

Es wird hier also wahrscheinlich massenweise PhysX genutzt, ohne dass das die meisten User überhaupt mitkriegen und sie meinen es wäre tot...

Ebenso kann es sich mit Raytracing verhalten, wobei da der Vorteil ist, dass Microsoft über DX12 mit Erweiterung den "abstraction- Layer" nativ mitliefert, was es den Engines ungemein einfacher macht, sich da einfach dranzuhängen.

Grüße
Zero
 
Zuletzt bearbeitet:
OptiX Demo für die Visualisierung im Hausbau/VR Fähig:

Interessante Abhandlung, die auch etwas mehr in die Tiefe geht:

Grüße
Zero
 
@ZeroZerp Kennst Du die Sponza Atrium Scene? Das ist quasi eine Referenz für das klassische Rasterizer Rendering mit Ambient Occlusion. Ich würde das gerne mal sehen, wenn es raytraced wurde - am besten im direkten Vergleich. Hast Du dazu zufällig einen Link gesehen?
 
Zurück
Oben