News TU102, TU104, TU106: Nvidias Turing-Chips im (Größen-) Vergleich

@Krautmaster
Dice hat bei der Battlefield 5 RTX Präsentation das Denoising ohne die Tensor Cores mit einer eigenen Routine durchgeführt....

Somit ist RT nicht zwingend auf die Tensor- Cores angewiesen, esseidenn man will eine niedrige Performance wie in Battlefield 5 damit erreichen ;)
 
z.B. Hier
Nvidia nutzt die neuen RT-Cores der Geforce RTX zur Hardwarebeschleunigung einiger Raytracing-Operationen wie der Triangle-Intersection. Diese Berechnungen dauern einige Millisekunden und kosten Energie, welche den regulären ALUs dann fehlt, wenn die das Denoising durchführen. Alternativ kann das auf den ebenfalls integrierten Tensor-Cores laufen, aber zumindest Dice sieht das momentan nicht vor.

Quelle:
https://www.golem.de/news/battlefie...-in-unserem-ruecken-spiegelt-1808-136274.html

In the video he also mentions that they aren't using the Tensor cores at all for denoising/scaling, but doing their own algorithm.

Quelle:
https://forums.guru3d.com/threads/battlefield-v-geforce-rtx-2080-ti-rotterdam-gameplay.422743/page-3

Das wird natürlich ordentlich Leistung kosten, gerade, weil es ja eines der Kernelemente ist, die ein schnell gebildetes, verrauschtes Raytracing- Bild "zaubern".

Die wollten einfach nur schnell schnell zeigen, wie es aussehen könnte, um den Leuten eine Vorstellung zu vermitteln. Ohne allerdings auch nur im geringsten an der Performance zu schrauben.
Der Schuss ging wohl ordentlich nach hinten los.

Ich finde, dass die Tensor Cores sowieso fast die interessantere Neuerung sind. Die können aus sch.... Gold machen:
https://www.dpreview.com/news/0229957644/nvidia-researchers-ai-grain-noise-images-photos

Somit sehe ich das garnicht mehr so eng, was die Geschwindigkeit der RT Cores betrifft.

Grüße
Zero
 
Zuletzt bearbeitet:
Ich muss da jetzt ma fragen, da ich evtl. was falsch verstanden habe ^^
Ich dachte eigtl. das Raytracing wird von anderen Kernen berechnet und die Haupt-Gpu (wohl hier 102 ?) hat nix damit zu tun ?
Also quasi, RT beeinflusst die "normale" Rechenleistung gar nicht.
Bei dem riesen Chip und dem Preis sollte das doch normal sein ? Oder peil ich was nicht und es wäre so nicht möglich ?
 
@satis
Raytracing wird auf den RT Cores berechnet.
Und das für eine entsprechende Geschwindigkeit zuständige notwendige Denoising, das die Artefakte (die durch "schnelles Raytracing" entstehen) beseitigt, auf den Tensor- Cores.
Somit ja - Es ist nur so, dass das z.B. bei der Battlefield 5 Demo nicht so gemacht wurde.

Und das kostet halt massiv Leistung...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: CBL
Dann frag ich mich warum die Entwickler selbst sagen, dass viel mehr als 60 FPS auf FHD nicht drin sind, wenn sie doch so einfach die Implementierung ändern können. :rolleyes:

Ist ja nicht so das die damit massiv Leistung freisetzen. Sie wollen lediglich die Drops von 60 -> 30+ reduzieren um feste 60 FPS zu erreichen. Und dazu scheint auch ein Mittel zu sein, wie bekannt gegeben, die RT Effekte deutlich zu reduzieren. :daumen:
 
@Aldaric87
Die Entwickler haben selbst widersprüchliche Aussagen getätigt.... Und wie gesagt wurde die Hälfte der neuen Technologie garnicht erst genutzt, sondern damit die ALUs belastet.

Was soll da schon groß rauskommen?
 
@ZeroZerp

Wo haben sie widersprüchliche Aussagen getätigt? Bei der Gamescom wurden sie gefragt wegen der Performance und haben klar gemacht, dass sie 1080p @ FHD mit festen 60 FPS anstreben mit aktiviertem RT auf einer 2080 Ti.

In der letzten News haben sie bekannt gegeben, dass nach Feedback über unrealistische/übertriebene RT Effekte, die RT Effekte zurückgeschraubt werden, auch um die Performance zu steigern.
 
@Aldaric87
Da hast Du wohl so einiges verschlafen

https://www.dsogaming.com/news/batt...s-with-nvidias-real-time-ray-tracing-effects/
https://wccftech.com/dice-battlefield-v-60fps-1080p-rtx/

Aha- Die Demo lief also Rock- Solid 60FPS, obwohl (das Kürzel DF steht für Digital Foundry) es ja noch folgende Aussagen gibt:
  • Dice developed the game with Titan V with no dedicated RT Core to run specific Ray Tracing functions. They only received Turing 2 weeks before this demo. They are planning to improve the fidelity at launch as Turing can accelerate these functions better than the Tensor Cores in Titan V
  • Ray tracing is running at 1:1 parity with Raster resolution. DF changed the resolution around and got the following: 1080p @ 60fps, 1440p @ 40-50 fps, and 4K @ 20fps
  • Dice is planning to allow greater control of RT settings including changing the amount of rays shot per pixel, scaling the RT resolution independent of rasterized resolution (e.g. Game at 4K, RT at 1080p or lower), or using intelligent upscaling of lower resolution RT using AI denoising/checkerboarding.
  • Expecting 30% RT performance improvement with one type of optimization (merging separate instances in various objects).
  • Demo is using RT Cores after the rasterization of G-Buffer. They are planning to run the RT Cores in parallel asynchronously.
  • Dice is happy to have Real time RT in hardware instead of coming up with time-consuming non interactive or inaccurate raster techniques to cover various cases.

So:
-Also haben wir ein Plus, weil die Demo für die TitanV entwickelt wurde, ohne die Raytracingfunktionen der speziell dafür ausgelegten Cores benutzen zu können.

-Dann haben wir ein Plus, weil die RT Auflösung durch Nutzung der Tensor- Cores nicht der nativen Auflösung entsprechen muss.

-Dann gehen sie von einer 30%igen Verbesserung durch Mesh- Merging aus

-Dann wollen sie nochmal 2ms und mehr dadurch gewinnen, dass sie die Berechnung mit der Rasterisierung anstoßen und nicht erst nach Abschluss.

Dann das hier:
be used in parallel to offer up something close to actual RTX performance but the bottom line is this: DICE had just two weeks with final hardware, which was dubbed simply as an 'Nvidia Graphics Device' in the device manager. In short, the developer wasn't even sure which RTX device they were working with.

Und jetzt frage ich mich, wie kann das alles sein?

Also alles Rock- Solid mit 60FPS und dann doch noch heftige Steigerungen möglich? Oder doch nicht?

Was ist eigentlich los bei Dice? Die wissen offensichtlich selbst nicht, wofür sie entwickelt haben, womit sie 2 Wochen gearbeitet haben, dass die Tensor Cores essenziell sind, um das Denoising zu beschleunigen (sie nutzten einen temporal basierenden Filter auf den ALUs) etc. etc.

In meinen Augen bekleckern die sich mit all ihren Aussagen nicht gerade mit Ruhm und das ist nur ein Zeichen dafür, wie konfus und ineffizient die Implementierungsphase gelaufen sein muss. Wobei 2 Wochen für so eine Implementierung bei einer "fertigen" Rasterengine natürlich auch kein Zeitraum ist.

Wenn also die Demo schon mit Rockstable 60FPS lief, wieso sollte man da noch etwas "anstreben" wollen?
Das widerspricht sich in meinen Augen.

RT Effekte zurückgeschraubt werden, auch um die Performance zu steigern.
Sie haben geschrieben, dass die Effekte abgeschwächt werden, damit es natürlicher aussieht. Und dass in EINER spezifischen Szene EIN Raum optimiert wurde, weil er durch übertriebene Spiegelungen die Leistung in die Knie gezwungen hat.

Indeed, in one specific scene, DICE dialed back the reflectivity of walls in a room to help improve performance after it was observed that ray tracing hit the frame rate too hard.

Was solls- In ein par Stunden sollen ja gerüchtehalber die Treiber endlich verteilt werden. Dann wird uns sowieso eine Welle an Leaks treffen, zumindest was die Rasterperformance anbelangt...

Grüße
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: CBL
Zurück
Oben