Technik, Zukunft und Potenziale der Turing Architektur (keine Marken-/Firmen-/Preisdiskussion)

Ich finde leider das Minecraft Video auch kein wirklich gutes Video, wie manch andere hier. Hebt sich nicht wirklich von bereits existierenden Shadermods ab. Einzig die Schatten der Blätter an den Bäumen hab ich so gut hoch nie gesehen, also das man die Blätterformen erkennt.

Interessant finde ich das er es auf einer GTX 970 laufen hat. Hoffentlich gibt es bald einen öffentlichen Download würde mir das gerne selber angucken.
Edit: Schade sehe gerade man muss ihn auf pateron unterstützen muss, um Zugang zur Liberay zu kriegen.
 
Zuletzt bearbeitet:
Hurricane271 schrieb:
Ich finde leider das Minecraft Video auch kein wirklich gutes Video, wie manch andere hier. Hebt sich nicht wirklich von bereits existierenden Shadermods ab. Einzig die Schatten der Blätter an den Bäumen hab ich so gut hoch nie gesehen, also das man die Blätterformen erkennt
Hey Hurricane - Dadurch, dass in vielen dieser Shadermods ja bereits auch Raytracing- Techniken zum Einsatz kommen, ist es klar, dass sich diese grafisch nicht groß unterscheiden.

Dieses Video habe ich deshalb ausgewählt, weil man dort anhand nicht texturierter Flächen sehr deutlich sehen kann, wie sich eine auf Raytracing beruhende Technik in Sachen Licht/Schatten und Spiegelungen auswirkt.

Man sieht, dass das Ding auf den Shadern mit annehmbarer Performance auf einer 970 läuft.
Jetzt stell Dir vor, man nimmt den Code und ersetzt den Part der Strahlenverfolgung so, dass diese nicht mehr über die Shader berechnet wird, sondern über die dedizierten RT Einheiten.
Und den Code füs Denoising, der auch über die Shader berechnet wird, wird auf die Tensor- Cores ausgelagert.

Dann sind doch die Aussichten auf einen dicken Performanceschub doch durchaus gegeben. Und das bei einer maximal qualitativ hochwertigen Ausleuchtung.
 
Und jetzt stellen wir uns vor, das ganze muss auch noch programmiert werden. Und jetzt stellen wir uns vor, das dies eben sehr viel Zeit in Anspruch nimmt. Und jetzt stellen wir uns vor, das dies ein ennormer Kostenfaktor in der Entwicklung ist (zumindest für alle Entwicklungen die nicht von Beginn an auf RT gesetzt haben und die Entwickler mit RT umgehen können.
Und jetzt stellen wir uns noch vor, das all diese ganzen Dinge am Ende mehr Leistung benötigen als aktuell vorhanden. Und dann sind wir an dem Punkt, wo so toll RT irgendwann mal sein wird. Es noch ein sehr langer Weg bis dahin ist und es wohl noch min. 2 GPU Generationen Zeit kostet bis es eben jenen genannten Performanceschub geben könnte.

Könnte, weil es erst einmal auch bewiesen werden muss, dass so viel mehr Leistung aus einer Grafikkarte heraus geholt werden kann mit RT gegenüber den bis jetzt herkömmlichen Methoden zur Berechnung von Licht, Schatten usw.
 
ZeroZerp schrieb:
Du kriegst die von der Lichtquelle weg immer mehr gestreuten Schatten mit Rasterisierung so nicht hin, außer man macht das ganze Prebaked, was dann wieder unmengen an Speicher kostet und ebenso Leistung zum Frühstück frisst.

Am besten hat das Asassins Creed Unity gemacht

Ja, mit Shadow Maps kriegst Du weiche Schatten hin. Aber doch nicht für Charaktere wie in AC:Unity. Sobald Bewegung ins Spiel kommt, kannst Du doch Schatten nicht mehr im Voraus berechnen? Shadow Maps geht nur für statische Szenen.

Und was hat es eigentlich mit dem ACU Video genau auf sich? Was hat der Junge getrieben und worin besteht sein Mod?

Edit: Nochmals zu den Schatten: Meine Aussage mit den Shadow Maps ist falsch. Es gibt inzwischen Soft Shadows und Nvidia hat beispielsweise die PCSS im Gameworks Programm.
 
ZeroZerp schrieb:
Dadurch, dass in vielen dieser Shadermods ja bereits auch Raytracing- Techniken zum Einsatz kommen, ist es klar, dass sich diese grafisch nicht groß unterscheiden.
Gibt auch Shader die zumindest nur auf ScreenSpace Reflections und herkömmliches GI setzten und sehr ähnlich aussehen.
Habe mir jetzt noch andere Videos angesehen und muss sagen das Wasser sieht viel besser aus und an einigen Stellen die Reflektionen sind sehr gelungen.
Er hat anscheinend vor wenn er alles fertig implementiert hat, also Mod zu veröffentlichen. Ich bin gespannt.
Aber ich konnte schon was von ihm finden was öffentlich ist.
https://sonicether.com/download/seus-renewed-v1-0-0/
Hier kommen Raytraced Schatten zum Einsatz, ich werde mir das mal bei Gelegenheit angucken.
ZeroZerp schrieb:
Man sieht, dass das Ding auf den Shadern mit annehmbarer Performance auf einer 970 läuft.
Jetzt stell Dir vor, man nimmt den Code und ersetzt den Part der Strahlenverfolgung so, dass diese nicht mehr über die Shader berechnet wird, sondern über die dedizierten RT Einheiten.
Und den Code füs Denoising, der auch über die Shader berechnet wird, wird auf die Tensor- Cores ausgelagert.
Das wollt ich auch damit ausdrücken, dass es auf einer GTX 970 annehmbar läuft. Vielleicht kriegt er es noch hin das die RTX-Karten speziell das nicht über die Standardshader rendern sollen, sondern über Tensor und RTX-Cores.
 
Zuletzt bearbeitet:
ZeroZerp schrieb:
Noch ein schönes Beispiel, was sehr schön die Vorzüge demonstriert, wenn man die Licht/Schattenberechnung über Raytracing durchführt:

Hier auch nochmal ein schönes Beispiel, wie Raytracing gerade auch in Sachen Beleuchtung/Verschattung neue Maßstäbe setzt:

Grüße
Zero

Oh wow danke für die Links, genau wegen so blöder spielerein warte ich auf ein gutes 2060 Angebot!
Minecraft mit ein RT Shader = :cheerlead:

Klar vielleicht noch nicht heute und auch noch nicht morgen aber hoffentlich schon bald.
 
Meine Empfehlung lautet , wartet die Hardware Version 2.0 von DXR / RTX ab .
Bei der Software / Gameengines wird es sicherlich auch noch Verbesserungen geben , und bis sich DXR / RTX durchsetzt auf breiter Front vergeht noch einige Zeit , was nicht zuletzt NV selbst geschuldet ist und ihrer Preispolitik . Wieviel % der GraKa Besitzer haben wohl RTX Karten von NV ? Eine breite Basis sieht ( noch ) anders aus .
 
  • Gefällt mir
Reaktionen: .Sentinel.
@MK one
Exakt- Wer das gefühl hat, jetzt mit dem ganzen Gedöns und der aktuellen Performance der erhältlichen RTX Titel nichts anfangen zu können und zudem der Preis für den Leistungsaufschlag zu hoch ist, sollte sich das Produkt nicht kaufen.

Derzeit sind die Alleinstellungsmerkmale am Markt nur bei:
-Battlefield 5 durch die Spiegelungen
-Final Fantasy 15 durch DLSS
-Wolfenstein 2 mit Variable rate Shading
-Quake 2 Pathtraced
zu finden

@Faust
Ja, mit Shadow Maps kriegst Du weiche Schatten hin. Aber doch nicht für Charaktere wie in AC:Unity. Sobald Bewegung ins Spiel kommt, kannst Du doch Schatten nicht mehr im Voraus berechnen? Shadow Maps geht nur für statische Szenen.
Da werden zwei Schattentechniken übereinandergelegt und aufaddiert, um den gewünschten Effekt zu erzeugen.

Lightmass macht da einen richtig guten Job. Aber wie bei allen vorberechneten Techniken braucht das erstens auch nicht unerheblich Rechenleistung und zweitens vor allem Speicher (RAM/VRAM/HDD).

Hat sich hier noch niemand gewundert, warum die neuen Spiele in die zig Gigabyte Bereiche gehen?
Mit vorberechneten Lichtverhältnissen werden Tag- und Nachtzeiten dadurch simuliert, indem man eben 4 oder mehr Tageslichtszenen vorberechnet auf Festplatte bannt und die dann überblendet. Eigentlich ein absoluter Irrsinn.
Aber es funktioniert näherungsweise.

Und wie gesagt- Zerstörbare, sich verändernde Umgebungen potenzieren den Speicherbedarf.

Weil Du dann nicht nur die komplett vorberechnete Szene für Morgens, Mittags, Abends und Mitternacht vorberechnen darfst, sondern dann Morgens, Mittags, Abends, Mitternacht Intakt- Morgens, Mittags, Abends, Mitternacht, halb zerstört - Morgens, Mittags, Abends, Mitternacht, voll zerstört etc.

Das dass ein Wahnsinn ist, der sich ja inzwischen auf die Downloadgrößen von 50GB und mehr niederschlägt, sollte jedem klar machen, dass das nicht so weitergehen kann.

Oder will man Spiele, die dann vorberechnet einen realistischen Tag-/Nachtwechsel haben, dann aber 180,-€ kosten, weil sie mit einer eigenen SSD ausgeliefert werden müssen?

Diesbezüglich belegt Raytracing genau 0 Speicher Platz. Belegt 0 Speicher für Tricksereien, die sonst notwendig sind, um Effekte zu faken.

Ladezeiten und große Frametimeschwankungen aufgrund von Streamingproblemen ob der großen Datenmassen, die regelmäßig hin- und hergeschoben werden müssen fallen weg.

AC Unity habe ich als Beispiel gewählt, wo eben die Vorberechnung konsequent eingesetzt wurde, so wie man eine Beleuchtung in Sachen Raytracing erwarten kann. Da bitte keinen Fokus auf die angebliche Modifikation legen, die ich in den Szenen auch nicht erkennen kann. Man bekommt zumindest ein Gefühl, wie es mit Raytracing aussehen könnte.

Das Spiel wurde in der Luft zerrissen, weil es so hardwarehungrig und speicherplatzschluckend lief.
Jetzt haben wir die Aussicht auf "the real thing" und das volldynamisch mit verhältnismäßig nicht deutlich teureren Hardwareanforderungen und das sollte doch tatsächlich bei jedem als großer Fortschritt ankommen.

Zum Thema PCSS- Schau mal wie teuer die im Rendering sind, oder 08/15 contact hardening Shadows (je nach Auflösung mindestens 10% und mehr. Die realistischen Schattenwürfe kriegst Du beim Pathtracing quasi kostenlos mitgeliefert...
Ergänzung ()

Selanius schrieb:
Und jetzt stellen wir uns vor, ...
Könnte, weil es erst einmal auch bewiesen werden muss, dass so viel mehr Leistung aus einer Grafikkarte heraus geholt werden kann mit RT gegenüber den bis jetzt herkömmlichen Methoden zur Berechnung von Licht, Schatten usw.
Hätte, könnte , wäre etc...

Man muss doch mal die relevanten Eckpfeiler betrachten.
Ganz große Brocken sind da die Graphics- Departments, die mit geradezu irrwitzigen Aufwand versuchen, die an sich grafisch schlichte Rasteriesierung durch Tricks auf hohe Level zu bringen:
http://mrakobes.com/Nikolay.Stefanov.GDC.2016.pdf

Hinzu kommt die extrem Aufwändige Gestaltung von Assets, unter Anderem, weil deren Berechnnung und fortwährende Iteration in den Editoren immer wieder neu offline berechnet werden müssen. RTX bietet die Möglichkeit die Assets in Echtzeit unter Einflussnahme des endgültigen Ergebnisses zu manipuieren.

Die teuren Wartenzeiten und Iterationen für die Optimierung der Assets lassen sich dadurch erheblich verkürzen:
https://www.golem.de/news/simplygon...ent-eines-spiele-budgets-aus-1504-113689.html

Somit haben die Entwickler rein aus kostentechnischen Gründen allen Grund dazu, die Technik schnell durchzudrücken, weil sie erhebliches Einsparpotenzial verspricht. Natürlich gilt hier der Grundsatz, dass man erstmal investieren muss, bevor man ernten kann.
Einen harten Cut zur neuen Technik wird und kann es aufgrund der Anzahl an installierten RTX Karten nicht geben.

Man hat also die Wahl immer wieder den Kostenfaktor für Faketechniken für Engines und mühsamer Asset- Entwicklung auf sich zu nehmen, oder die eigene Engine Raytracingtauglich zu machen mit der Aussicht, den alten, aufwändigen Renderpfad und die hohen damit einhergehenden Kosten perspektivisch zu sparen.

Und jetzt stellen wir uns noch vor, das all diese ganzen Dinge am Ende mehr Leistung benötigen als aktuell vorhanden.
Was zur Hölle ist denn an den sich in den ersten Iterationen befindenden Engines (Snowdrop, UE4) mit RTX Ultra, WQHD und 60-90 FPS auszusetzen?

Was soll denn da zu langsam sein?

Und dann sind wir an dem Punkt, wo so toll RT irgendwann mal sein wird. Es noch ein sehr langer Weg bis dahin ist und es wohl noch min. 2 GPU Generationen Zeit kostet bis es eben jenen genannten Performanceschub geben könnte.
Was soll Dir RT denn noch liefern? Wir liegen wir oben angesprochen beim Spitzenmodell jetzt schon bei absolut als flüssig zu bezeichnenden Bildraten.
Wir stehen vor einem weiteren Shrink auf 7NM, wo nochmal ein deutlicher Leistungsschub zu erwarten ist, so dass die niedriger klassifizierten Karten auch an dieses Niveau rankommen.

Es ist bereits jetzt praktikabel nutzbar (wenn auch teuer) und wird vermutlich im Laufe des Jahres noch einmal deutlich günstiger und zeitgleich performanter.

Performanter und zukunftsträchtig auch deshalb weil man im Gegesatz zur Rasterisierung wieder einen Hebel hat, der mit höherer Paralellisierung auch wieder deutlich mehr Leistung des Transistorzahlenwachstums direkt in nutzbare Grafikleistung übersetzen kann.

Grüße
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: kisser
ZeroZerp schrieb:
AC Unity habe ich als Beispiel gewählt

Nach unserer Schattendiskussion hier wird mir gerade so einiges klarer, was ich mal in einer Präsentation von den Entwicklern von Assassins Creed Unity gesehen hatte. Das ist sehr interessant, aber doch schon sehr tief drin in der Materie und setzt einiges an Programmierwissen im Bereich 3D voraus: Advances in Real - Time Rendering in Games Hier gibt es die beiden vorgestellten Techniken Shadow Occlusion Depth Generation und Camera Depth Reprojection, die doch genau das sind, was Du meinst, korrekt?
 
  • Gefällt mir
Reaktionen: Colindo und .Sentinel.
@Faust2011
Schön dass Du den Link Postest, da neben unserem Diskussionsthema auch virtual Texturing angesprochen wird, welches erklärt, wie sich letztenendes Fullscreen 8K Texturqualität mit niedrigstem Speicheraufwand umsetzen lässt.

Ist außerdem ein Sheet von dem von mir sehr geschätzten Herrn Aaltonen, der sehr viel von RT und noch mehr von den Mesh shadern hält ;)
https://twitter.com/sebaaltonen/status/1063153928857104384?lang=de
Und das ist ja mal wirklich jemand mit Expertise.

Und ja- Durch diese Algorithmen werden die sanften Schattenverläufe, die nicht statisch sind, generiert.
Auch schon eine teure und fortgeschrittene Technik.

Die statischen Schatten werden mit einer ähnlichen wie der nachfolgend verlinkten Technik generiert (meiner Erinnerung nach wurde damals "enlighten" benutzt).
Hier der aktuelle Star des prebaked Lightings:
https://docs.unrealengine.com/en-US/Engine/Rendering/LightingAndShadows/Lightmass

Aber wie gesagt- Das hatte alles seinen Preis:
http://www.pcgameshardware.de/Assas...198/Specials/Test-Technik-Benchmarks-1142550/

Da war Ende 2014 nix mit FullHD und min 60 FPS. Selbst mit der stärksten Karte.
In diesem Falle stand das optische Ergebnis allerding im vernünftigen Verhältnis zum Leistungshunger, wenn man sieht, was für Aufwand betrieben wurde und wie das Endergebnis aussah... ;)
Für mich war AC Unity fast ein zweites Crysis, was die Grafikentwicklung anbelangt.

LG
Zero
 
Zuletzt bearbeitet:
@Faust2011
Das kannte ich noch garnicht. Wirklich interessant und noch interessanter, dass sie nahezu perfekte Ergebnisse mit nur 2 Samples per Pixel erzeugen können.

Ich bin gespannt, welchen Weg man bei den raytraced Schatten in Shadow of the tomb raider geht. Ob wir da full scened RT sehen werden, oder wie hier das RT per Lichtquelle in niedriger Strahlentiefer erfolgt (was aber wie gesagt auch schon fast perfekte Ergebnisse liefert.

Grüße
Zero
 
ZeroZerp schrieb:
Für mich war AC Unity fast ein zweites Crysis, was die Grafikentwicklung anbelangt.

Ich hatte mir Ende 2014 nach langer Zeit überhaupt mal wieder einen PC fürs Gaming zusammengestellt und mich mit der Materie, insbesondere 3D-Grafik befasst (auch aus Entwicklersicht) und von AC Unity, das zu dieser Zeit auf den Markt kam, war ich ebenfalls einfach nur geflashed. :D

Zu Ehren von Unity sollte man auf jeden Fall diese 3 minütige Video von Nvidia sehen, das die dort verwendeten Gameworks-Effekte zeigt: Assassin's Creed Unity featuring NVIDIA GameWorks

Sorry für dieses Halb-Topic, aber ich glaube, wir teilen dieselbe Leidenschaft :daumen:
 
Die Entwicklung der "correct soft shadows" ist echt spannend zu lesen. Auch sehr interessant, wie der Algorithmus von Turing beschleunigt wird. Das Denoising wird ja kaum schneller, trotz Tensor Cores, was wieder mal Luft für die Spekulation der "schlechten Funktion" lässt. Die RTX-Kerne hingegen arbeiten ordentlich.
 
Colindo schrieb:
Das Denoising wird ja kaum schneller, trotz Tensor Cores, was wieder mal Luft für die Spekulation der "schlechten Funktion" lässt.

Ich krieg (auch von NVIDIA) ums verrecken keine Information, wann die Denoising Bibliothek für die Tensor Cores verfügbar sein wird. Das Denoising wird nachwievor ohne die Tensor Cores durchgeführt.

Hatte ich ja auch schon mehrfach wiederholt, wie verwundert ich bin, dass genau dieses Feature, welches aus Bildern mit niedriger rays/pixel Zahl quasi ohne Rechenaufwand für die Shader eine qualitativ hochwertige Szene ausspucken, nirgendwo genutzt wird. Jeder baut da im Augenblick seinen eigenen softwareberechneten Denoiser.

Die 2ms fürs Denoising könnte man nämlich auch einsparen, wenn man sie auf die Tensor cores auslagert und paralell zu den Shadern dann nach erfolgreicher Berechnung wieder einfängt.

Mir drängt sich der Verdacht auf, weil es gar so still darum geworden ist, dass da jemand seinen Mund ziemlich voll genommen hat und die Softwareentwickler nun schwitzen, weils doch alles nicht so einfach umzusetzen ist.
Wie gesagt- In Sachen Denoising mit Tensor Cores gibt es nichts, nada.

Wobei hier auch eine interessante Alternative entstehen könnte, die die AVX Einheiten nutzt:
https://www.hardwareluxx.de/index.p...r-das-entrauschen-von-ray-tracing-szenen.html

Edit:
Korrektur zu oben- Es regt sich was. zumindest in Optix scheint das ganze vor kurzem integriert worden zu sein:
https://www.develop3d.com/comment/your-workstation-can-never-be-fast-enough

Somit sollte Hoffnung bestehen, dass das auch Bald für den Spielemarkt verfügbar ist...

Grüße
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Colindo
Und hier eine auf den ersten Blick deutlich bessere DLSS Implementation als die von FF15:

Ein dicker Leistungssprung bei einer auf den ersten Blick sichtbar überlegenen Bildqualität und einwandfreier Kantenglättung.

Das lässt auf zukünftige Titel hoffen...

Technische Abhandlung (ab Seite 150):
https://s3.amazonaws.com/download-aws.futuremark.com/3dmark-technical-guide.pdf

Meine Benches 9900k/2080 TI

1080p
dlss1080p.JPG


1440p
dlss1440p.JPG


2160p
dlssuhd.JPG


In 1080p kratzt man zeitweise an die 140FPS hin.
In 1440p an die 100FPS.
In 2160p an die 60FPS.

Es wird doch langsam.
Jetzt noch mesh shader drauf und variable rate shading und den Denoiser über die Tensor Cores laufen lassen, dann ist das Ziel erreicht dass man trotz RT on, die FPS von nicht RTX Karten erreicht.

Grüße
Zero
 
Zuletzt bearbeitet:
Ich muss meine Aussage von gestern revidieren. Habe heute den Shadermod, den ich weiter oben erwähnt habe, für Minecraft gegengetestet gegen einen den ich früher gerne benutzt habe und als gut empfunden habe. Und muss sagen da hat mich wohl meine Nostalgie getäuscht dieser Shader sieht nicht so gut aus wie der von mir oben erwähnte, geschweige den das verlinkte Video von Zero.

Ich hab ich ein kleines Vergleichsvideo erstellt wo man die viel weicheren und genaueren Schatten des Shadern mit Raytraced-Elementen erkennt, nur stellenweise die raytraced Reflektionen sehen nicht so toll aus ist aber den Oberflächen der Blöcke geschuldet. Denn beim Quartzblock funktioniert es einwandfrei.

Zuerst ist der non-Raytraced Shadermod zusehen und dann der mit.
Nach jedem Blackscreen beginnt es mit dem Non. Auch sollte nur auf die Schatten und Reflektionen geachtet werden, da die GI und SSAO anders konfiguriert sind.
(Musste leider im Fenstermodus aufnehmen, weil ReLive im Minecraft Vollbild nicht ging)

System:
RX 590
Ryzen 1600 (3,8 Ghz)
16 DDR4 2400
 
Zuletzt bearbeitet: (Kleine Fehlerkorrektur.)
  • Gefällt mir
Reaktionen: .Sentinel. und Jens1882
Danke für die Mühe @Hurricane271 .

Es ist nichts Ungewöhnliches, dass man die Dinge, die einen Ehemals vom Hocker gehauen haben, im Vergleich zu anderen Dingen dann oft noch als besser in Erinnerung hat, als es dann tatsächlich der Fall ist.

Im Direkten Vergleich ist das dann immer was anderes.

LG
Zero
 
  • Gefällt mir
Reaktionen: Hurricane271
Noch ein schönes Beispiel für Path- Tracing
 
  • Gefällt mir
Reaktionen: Hurricane271
das Video ist zwar nicht speziell für RT , aber ab 8:30 wird auch darauf eingegangen
der Ersteller ( englisch) geht auf die Parralellisierbarkeit von Code ein , bei RT setzt er 95 % ein = 95 % können gleichzeitig berechnet werden , trotzdem macht es kaum bis keinen Sinn mehr als 128 RT Cores zu verwenden und limitiert dadurch den Performance Zuwachs auf 27 % bei zukünftigen Graka s ( höherer Takt ist davon ausgenommem , es geht um die " Breite " = Anzahl der Cores die Sinn machen )
das Video bezieht sich auf " Amdahls Law "
https://de.wikipedia.org/wiki/Amdahlsches_Gesetz

Bei Desktop CPU setzt er übrigens die Grenze bei 32 Kernen
 
Zuletzt bearbeitet:
Zurück
Oben