Bericht Turing TU102, -104, -106: Die Technik der Nvidia GeForce RTX 2080 Ti, 2080 & 2070

mieze78 schrieb:
https://www.anandtech.com/show/13282/nvidia-turing-architecture-deep-dive

ich finde nate oh auf anandtech hat es gestern bestens vormuliert: man bekommt mit Turing Pascal Performance mit leichtem gewinn samt RT obendrauf. Nvidia behält sich vor, die preis/leistungsklasse nicht zu verändern, sondern stellt sich im DXR Race schonmal an die vorderste linie: was AMD und Intel 2020 machen ist erstmal egal, daher auch die preise, gesalzen ganz klar!

Sowas ähnliches habe ich hier im Forum vor einer Weile geschrieben. Pascal mit RT Cores nebenbei. :)
 
Taxxor schrieb:
Ich hätte es anders formuliert: Man bekommt mit Turing entweder etwas mehr Performance als Pascal oder RT bei 50%iger Performance von Pascal.
Nö- Man bekommt mit Turing mehr Performance als Pascal und bei RT die Bildwiederholrate, die ein Entwickler bereit ist, mit Beschleunigung oder Erhöhen der Grafikqualität dem Benutzer einen Mehrwert zur Verfügung zu stellen.

Wenn er auf 1080P 60FPS hinarbeitet bekommst Du, wie sonst bei 99% der Softwareproduktionen üblich auch nur Deine 60FPS auf 1080P.
Die derzeit üblichen Werte für AAA Produktionen sind 1080P 30Hz/60Hz -Checkerboard bis zu 4K 30Hz.
Will der Entwickler auf dem PC mehr ermöglichenals 1080P 30Hz/60Hz, bekommst Du mehr, da die Technik skalierbar ist. Das sollten die Beispiele bezüglich der Performance der neuen Karten mit RTX doch nun langsam wirklich gezeigt haben.

Ich frage mich immer wieder erneut, warum die positiv Beispiele hartnäckig ignoriert werden.
Langsam muss man sich fragen, ob da Methode dahintersteckt.

https://www.pcbuildersclub.com/2018...x-2080-mit-raytracing-in-4k-auf-ueber-90-fps/
https://twitter.com/mundfish/status/1031843418085838848

Und das TROTZ Alpha- Status der Software- Versionen....

Es ist die Frage, wie der Entwickler die neuen Funktionen einbindet. Die Entwickler sind sich bis jetzt lt. Aussagen alle einig, dass das Gebotene zu einer Revolution führen wird.

Ich habe in Vancouver auf der Siggraph die Unreal Leute gesehen, abends mit vielen Entwicklern auch mal bei einem lustigen Getränk etwas lockerer geplaudert. Die sind alle aus dem Häuschen ob der neuen Möglichkeiten. Ich habe selten so viel echte Begeisterung gesehen. Aber NV ist ob der ganzen Vorleistungen auch zum Erfolg verdammt.

Zitat aus der Tomshardware DE Seite. und wir wissen alle, dass Herr Wallossek ein Technikfreak ist und wenig zu Übertreibung neigt.

Die Revolution will anscheinend keiner anerkennen, weil der individuelle Preis wohl dafür zu hoch erscheint.
Was wiederum aber 0 daran ändert, dass hier gerade Großes passiert, was tatsächlich auch 1200€ wert sein könnte.

Grüße
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Vitec und pietcux
Bei Videocardz wurden wieder Benchmarks geleaked. Die sehen sehr gut aus. Nicht so überragend wie damals der Wechsel auf Pascal, aber schon ziemlich gut.
 
Lasss dich nicht vom Namen verwirren. Die 2080 ist der Nachfilger der 1080 Ti und die 2070 der Nachfolger der 1080 wenn man die Leistenpreise bei Release vergleicht. Da sind die Werte deutlich weniger beeindruckend.
 
Toni_himbeere schrieb:
Aber mal davon ab, BF V hat ja auch nicht den Anspruch historisch korrekt zu sein.
Klar, aber ich habe eben den Anspruch historisch akkurat umgesetzte Shooter zu spielen, weshalb für mich BF V keine Option ist.
 
ZeroZerp schrieb:
Ich frage mich immer wieder erneut, warum die positiv Beispiele hartnäckig ignoriert werden.
Langsam muss man sich fragen, ob da Methode dahintersteckt.

https://www.pcbuildersclub.com/2018...x-2080-mit-raytracing-in-4k-auf-ueber-90-fps/
Und ich frage mich, wieso große Entwickler dabei so abfailen müssen.

Gerade für so Geschichten wie Ambient Oclusion bzw. Beleuchtung allgemein kann man doch sicher mit wenigeren Rays auskommen. Das muss ja nicht super scharf sein.

Und wieso die Ausgabe-Auflösung direkt an die RT-Performance gekoppelt sein soll, verstehe ich auch nicht so recht.
Wenn die Tensor Cores bei 1080p am Limit sind und die Karte sonst aber noch Reserven für 4K hat (was ja scheinbar so ist, wenn sie das ohne RT packt), wieso belässt man den RT-Part dann nicht einfach bei der 1080p Auflösung? Dann sind die Schatten/Reflexionen in Tomb Raider und Battlefield eben ein bisschen weniger hoch aufgelöst. Ist dann trotzdem immer noch ein derber Mehrwert gegenüber der klassischen Methoden.

Ich denke mir auch, daß hier locker deutlich mehr möglich ist als die ernüchternde Performance von BF und TR.
Die Entwickler müssen nur etwas sinnvoller mit den gegebenen Ressourcen umgehen.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Die RT Cores werden in Battlefield bisher auch überhaupt nicht genutzt - lediglich die Tensor Cores.
Dazu gab es jetzt schon mehrere Interviews, dass die Entwickler auf ner Titan V entwickeln mussten und daher auch gar keine RT Cores zur Verfügung hatten.

Warum das immer gekonnt ignoriert wird? Bin ich leider überfragt.

Ich gehe mal davon aus, dass auch Sotr und Metro in ähnlicher Weise limitiert sein könnten.
Aber das wird man in den RT Tests dann schon rausfinden.

Der ganze RT Hate bezog sich bisher immer auf ne Alpha von Sotr und einer recht unfertigen Implementierung in BF V. Bei letzterer bin ich mir recht sicher, dass die RT Cores auch nicht mehr zum Einsatz kommen werden, da sie sonst die jetzige Lösung über den Haufen werfen mussten - und die hat bestimmt viel Zeit und Geld gekostet.

Ich bin mir sicher, dass auch schon mit der Hardware der RTX Karten 4k60fps Hybrid RT möglich sein wird. Es ist und bleibt aber Spekulation, manchen reicht das für nen Kauf, anderen (mir z.B.) noch nicht.

Über Preise braucht eigentlich auch nix mehr sagen, wer sichs leisten will kauft jetzt, wems zu teuer ist kauft später und wer Nvidia eh hasst kauft halt AMD.

Edit: So wies aussieht nutzen sie ja nichtmal die Tensor Cores wirklich: https://www.google.de/amp/s/www.eur...-battlefield-5s-stunning-rtx-ray-tracing-tech
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: USB-Kabeljau
wie soll das gehen ohne RT cores?

Anand schrieb:
Upon receiving a ray probe from the SM, the RT Core proceeds to autonomously traverse the BVH and perform ray-intersection tests. This type of ‘traversal and intersection’ fixed function raytracing accelerator is a well-known concept and has had quite a few implementations over the years, as traversal and intersection testing are two of the most computationally intensive tasks involved. In comparison, traversing the BVH in shaders would require thousands of instruction slots per ray cast, all for testing against bounding box intersections in the BVH.
https://www.anandtech.com/show/13282/nvidia-turing-architecture-deep-dive/5
 
Ich denke mal mit der naechsten Generation wird es dann auch gescheit Nutzbar sein und im volleren Umfang. Ich sehe als 1070 besitzer mit den Preis- und Performance unterschieden keinen Grund fuer ein Upgrade auf die jetzige Generation. Naechste dann vielleicht! Fortschritt ist Fortschritt!
 
Dann warens wohl doch die Tensor Cores.....
Ich frag mich dann aber auch, wie das auf einer Volta lief?
 
Oneplusfan schrieb:
Ich frag mich dann aber auch, wie das auf einer Volta lief?

Ganz "einfach"
At the base level, DXR will have a full fallback layer for working on existing DirectX 12 hardware. As Microsoft’s announcement is aimed at software developers, they’re pitching the fallback layer as a way for developers to get started today on using DXR. It’s not the fastest option, but it lets developers immediately try out the API and begin writing software to take advantage of it while everyone waits for newer hardware to become more prevalent. However the fallback layer is not limited to just developers – it’s also a catch-all to ensure that all DirectX 12 hardware can support ray tracing – and talking with hardware developers it sounds like some game studios may try to include DXR-driven effects as soon as late this year, if only as an early technical showcase to demonstrate what DXR can do.

In the case of hitting the fallback layer, DXR will be executed via DirectCompute compute shaders, which are already supported on all DX12 GPUs. On the whole GPUs are not great at ray tracing, but they’re not half-bad either. As GPUs have become more flexible they’ve become easier to map to ray tracing, and there are already a number of professional solutions that can use GPU farms for ray tracing. Faster still, of course, is mixing that with optimized hardware paths, and this is where hardware acceleration comes in.
https://www.anandtech.com/show/12547/expanding-directx-12-microsoft-announces-directx-raytracing
 
  • Gefällt mir
Reaktionen: Unnu und mieze78
USB-Kabeljau schrieb:
Ich denke mir auch, daß hier locker deutlich mehr möglich ist als die ernüchternde Performance von BF und TR.
Die Entwickler müssen nur etwas sinnvoller mit den gegebenen Ressourcen umgehen.
Das lustige ist, dass die Entwickler selbst ja inzwischen zugegeben haben, dass es eine rudimentäre implementation ohne jegliche Optimierung war.
Bei DICE wird inzwischen sogar angezweifelt, dass bei der Vorführung tatsächlich die RT Cores eingesetzt wurden, sondern das Feature Set, welches auf Volta zur Verfügung stand.
Zudem wissen wir, dass ein wesentlicher Bestandteil, nämlich das Denoising, welches dafür sorgt, dass eben wenige, schnell berechnete Rays ausreichen um trotzdem ein sauberes Bild zu berechnen, bei Battelfield 5 über die ALUs lief.
DAS Killerfeature, was aus niedrig aufgelösten Rauschebildern eine saubere Darstellung werden lässt, wurde also nicht über die dafür vorgesehene Hardware beschleunigt, die zig Terraflops leistet.

Auch die Entwickler der Tomb- Raider Demo haben sich ja der Kritik an Performance gestellt:
As the developer points out, there is still work that needs to be done to get the ray tracing portion running on all cylinders. Despite the underlying hardware support from the card’s dedicated RT Cores and AI-focused Tensor Cores, optimizations still need to be made on the software side, hence the demo’s current framerate.

Wir haben es also mit alpha Implementierungen auf nicht optimierten Versionen des Spiels zu tun.
Und wenn man weiss, was die letzten Tomb Raider Teile der Hardware bei Aktivieren aller Effekte anfangs abverlangt hat UND nun auf einer noch nicht mal optimierten Version noch schnell unoptimiertes Raytracing drübergestülpt wird, dann weiss man auch, dass in Sachen finaler Performance noch nicht das letzte Wort gesprochen ist.

Man kann das natürlich alles leugnen oder ignorieren, so wie es hier viele tun. Andere wiederum ziehen all diese Umstände in Betracht und erkennen Potenzial auf mehr, OHNE auf die nächste Generation der Karten warten zu müssen. nVidia wird schon wissen, warum sie die Karten jetzt bringen.

Sie halten die neue Technik offenbar für marktreif. Sonst würden sie kein finanzeilles Risiko eingehen.

Grüße
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: USB-Kabeljau und Oneplusfan
ZeroZerp schrieb:
Und wenn man weiss, was die letzten Tomb Raider Teile der Hardware bei Aktivieren aller Effekte anfangs abverlangt hat UND nun auf einer noch nicht mal optimierten Version noch schnell unoptimiertes Raytracing drübergestülpt wird, dann weiss man auch, dass in Sachen finaler Performance noch nicht das letzte Wort gesprochen ist.

Leider weiß man dadurch auch, dass die Aussage "It works!" doch eher nur die halbe Wahrheit ist und das es noch eine halbe Ewigkeit dauern wird, bis wir eine halbwegs anständige Implementierung von RT sehen werden. Unter dem Aspekt, kann man sich gemütlich zurücklehnen und das kommende Jahr abwarten.
 
  • Gefällt mir
Reaktionen: CBL
Shoryuken94 schrieb:
Finde immer dieses Gerede über die Strukturbreite unnötg. Am Ende zählt das was dabei rauskommt. Sieht man bei AMD z.B. ja gut, die teils mit 14nm nicht mal an die Effizienz von Maxell in 28nm rankommen.

AMD Vega = 13107 GFlops und 300 Watt = 43,69 GFlops Pro Watt
nVIDIA Titan X = 6144 GFlops und 250 Watt = 24,576 GFlops Pro Watt

Alles eine Frage der Auslastung der Software. Soviel zum Thema Maxwell ist Effizienter als Vega bspw, Ja ich weiß TDP ist nicht = Verbrauch.
 
xexex schrieb:
Leider weiß man dadurch auch, dass die Aussage "It works!" doch eher nur die halbe Wahrheit ist und das es noch eine halbe Ewigkeit dauern wird, bis wir eine halbwegs anständige Implementierung von RT sehen werden.
Ist halt die Frage, worauf das It works! bezogen war. Für eine zweiwöchige Implementierung in Alpha Software, in der zum Teil die vorhandene Hardware nicht genutzt wurde, sah das doch dafür schon ganz gut aus.
 
t3chn0 schrieb:
So, hier sind wohl die ersten echten, geleakten Benchmarks. Wenn die stimmen, sind die Turing Karten schon sehr viel stärker. Bei 4K noch so viel on Top zu legen ist schon krass. Vor allem ist die 2080 klar stärker als die 1080Ti und um Welten stärker als eine 1080.

https://videocardz.com/77983/nvidia-geforce-rtx-2080-ti-and-rtx-2080-official-performance-unveiled

Den Satz hast du aber gelesen oder?

The graphs are based on values (framerate/scores) provided by NVIDIA for their recommended titles. Yes, the word recommended is rather important here too.
 
Natürlich und jetzt? Ah, ich verstehe, das sind wieder nur Mega geschönte Werte die rein gar nichts mit der Realität zu tun haben.

Dafür machst Du Dir extra einen Account? Oo
 
Zurück
Oben