News Nvidia Quadro RTX: Turing mit bis zu 16 TFLOPS und RT-Cores für Raytracing

Wolfgang

Redakteur
Teammitglied
Dabei seit
Nov. 2002
Beiträge
6.182
#1

Roche

Lt. Commander
Dabei seit
Mai 2017
Beiträge
1.907
#3
Wenn die Quadro noch vor den GeForce kommen und das wirklich erst im vierten Quartal passiert, dann gibts also neue Spielerkarten erst Anfang 2019. Somit sollten sich die Fragen danach, ob man jetzt noch kaufen soll erübrigt haben.
 

EMkaEL

Lieutenant
Dabei seit
Nov. 2009
Beiträge
887
#4

j-d-s

Lieutenant
Dabei seit
März 2008
Beiträge
633
#5
Wenn die Quadro noch vor den GeForce kommen und das wirklich erst im vierten Quartal passiert, dann gibts also neue Spielerkarten erst Anfang 2019. Somit sollten sich die Fragen danach, ob man jetzt noch kaufen soll erübrigt haben.
Genau, man sollte es nicht.

Da die Preise jetzt, zwei Jahre nach dem Erscheinen immer noch etwa auf Veröffentlichungsniveau sind, kann man das nicht unterstützen. Das sind reine Wucherpreise.

Für zwei Jahre alte Hardware den Vollpreis als das Zeug neu war? Ich denke nicht, dass es klug ist das zu zahlen.
 

EMkaEL

Lieutenant
Dabei seit
Nov. 2009
Beiträge
887
#6

m.Kobold

Lt. Commander
Dabei seit
Feb. 2002
Beiträge
1.358
#8
Raytracing hört sich für mich nach Rohrkrepierer an... gibt doch kaum anwendungen für DX12 und das wird sich auch nicht so schnell ändern, wieso sollten auch die Spieleentwickler umständlich jede einzelne Grafikkarte über die API Optimieren wenn es so einfach mit DX11 auch funktioniert, macht einfach keinen Sinn.

Ich will mir keine neue Graka kaufen die erst in 3 Jahren und dann auch nur vielleicht (falls es dann genug DX12 Spiele geben sollte) ordentlich Performance liefert.

Das still schweigen über Spielegrafikkarten gefällt mir überhaupt nicht.
 
Dabei seit
Juli 2013
Beiträge
2.572
#9
100GB hätt ich gern bei einer SSD als Übertragungsgeschwindigkeit....
OMG, ich glaub ich krieg nen St...., so geil find ichs. :D

Ich bin mir sicher, kommt AMD in die Gänge, wird sich bei den GPU´s genauso viel tun wie bei den CPU´s.
 
Dabei seit
Apr. 2007
Beiträge
870
#11
Nun, auf Geforce-Releases darf man dementsprechend wohl noch warten. Sollte auf der Gamescom hierzu nichts angekündigt werden, könnte es leicht 2019 werden, zumal nicht damit zu rechnen ist, dass die Quadro-Chips unverändert auf Gaming-Karten zum Einsatz kommen.
 

lalelu

Cadet 4th Year
Dabei seit
Nov. 2010
Beiträge
105
#12
By using Turing’s hybrid rendering capabilities, applications can simulate the physical world at 6x the speed of the previous Pascal™ generation.

Alles weiter sind theoretische Angaben, wenn das über die Tensor Cores beschleunigte Denoising, Upscaling, und die Zwischenbildberechung genutzt werden.

"DLAA — deep learning anti-aliasing, which is a breakthrough in high-quality motion image generation — denoising, resolution scaling and video re-timing. "

Erstmal sind das theoretische Werte der Hardware. Fraglich ist auch, ob man das aufgrund der Genauigkeit mit den "Rays per Second/Leistung" einer CPU vergleichen kann. Corona Render, welcher auf Intel Embree basiert, produzierte aufgrund der höheren Genauigkeit wesentlich weniger Rauschen und benötigt somit auch nur halb soviel Rays, im Vergleich mit einem GPU basierten Renderer.
Mal abwarten, wie die ersten Implementierungen laufen und welche Performance diese zeigen.
 

Vissi

Lieutenant
Dabei seit
Dez. 2015
Beiträge
852
#13
Hört sich interessant an. Ich zocke in der letzten Zeit kaum mehr, so dass ich mir wohl keine neue Graka anschaffen werde.
 
Dabei seit
Jan. 2010
Beiträge
3.652
#14
Wieder nur ein typischer Shrink... ah moment nein, dass ist durchaus bahnbrechend. Real Time Raytracing ist und war der ultimative Traum. Das ist vermutlich erst der Anfang, in 5 bis 10 Jahren koennte das aber nen mega Durchbruch sein, fast schon wie das erscheinen von 3D Beschleunigern allgemein.

Naechste Woche auf der Gamescom werden wir etliche Spiele mit Raytracing support sehen. Da wird Nvidia schon fuer Sorgen. MeinTip: Battlefield 5 als Steckenpferd.

Dank der extremen Marktmacht ist es diesmal auch recht einfach das durchzusetzen. Die Konkurrenz ist derzeit tot im oberen Segment. Das mal der kleine Vorteil wenn man alleine dasteht immerhin, der Nachteil: Nvidia kann klassische Monopolpreisbildung durchsetzen, die zu minimaler Wohlfahrt fuehrt.
 
Zuletzt bearbeitet:

hahaqp

Lieutenant
Dabei seit
Nov. 2008
Beiträge
559
#17
Nvidia wird sich den Weihnachtsmarkt nicht durch die Finger gehen lassen. Die Verfügbarkeit wird sicherlich nicht optimal sein, aber wer unbedingt will wird die neuen Gaming GPUs noch 2018 bekommen.
 

Aphelon

Lt. Commander
Dabei seit
Okt. 2017
Beiträge
1.835
#18
Wir müssen uns also an einen neuen Namen gewöhnen...

Ich hoffe sie sprechen bei der Vorstellung der RTX 2080 weniger über Raytracing und Co... das wird eh noch dauern, bis man das flächendeckend im Spielen sieht.
 

Faust2011

1+1=10
Teammitglied
Dabei seit
Aug. 2011
Beiträge
8.533
#19
Wow, der Nebel lichtet sich und doch bleiben viele Fragen offen.

Wie schnell Turing in Spielen sein wird, bleibt indes weiterhin unklar. Die RT- sowie Tensor-Kerne müssen von der Software unterstützt werden, damit sie einen Vorteil bringen.
Und damit sitzt Nvidia im gleichen Boot wie AMD, die mit den ganzen Vega-Features auch erstmal im Abseits rumstehen und auf die Software-/Spieleentwickler warten, denn diese müssen es einbauen/aktiveren.

Um das zu erreichen wurde die Grafik-Pipeline erweitert, Nvidia spricht von einer „neuen, programmierbaren Shading-Technologie“.
Erinnert wieder an AMD, nämlich deren Primitive-Shader.

De-Noising und AI Inference eignen. Die Raytracing-Leistung der RT-Kerne in Verbindung mit den Tensor-Cores soll gegenüber Pascal um den Faktor 25 höher sein und um Faktor 30 höher als mit modernen CPUs. Nvidia nennt 10 Gigarays in der Sekunde für Turing.
Die Leistungssteigerung hört sich immens an, allerdings kann ich das überhaupt nicht einschätzen. Die Frage ist doch letztlich, ob die Performance überhaupt schon ausreicht, damit die Features sinnvoll eingesetzt werden können oder ob es immer noch eher im Bereich Spielerei / Machbarkeitsstudie / Techdemo liegt.

Mit Begriffen um mich werfen kann ich auch: Vertex-Shader, Pixel-Shader und Fragment-Shader. In Hardware umgesetzt sind diese derzeit als Unified Shader. Und um die Auslastung zu erhöhen nutzt man Asynchronous Compute. Dazu kommen dann noch die NCUs von AMD und die Berechnungen in FP8 und FP16 ;)

Ich bin gespannt, wie die RT-Cores von Nvidia tatsächlich aufgebaut sind und welche Art von Berechnungen sie beschleunigen.

Insgesamt ist Raytracing eni spannendes Thema. Wie man das in Hardware am besten beschleunigt? Reicht vielleicht sogar eine besonders flexible Compute Shader Architektur, wie sie bereits AMD hat? ;)
 

LeChris

Vice Admiral
Dabei seit
Dez. 2002
Beiträge
6.849
#20
Raytracing gibt ab einer gewissen Szenenkomplexität, also Polygone mal dynamische Lichtquellen, Performancevorteile, die sehr eklatant ausfallen können. Die Richtung ist definitiv die richtige, allein die Konsolen werden nicht mithalten. Der Chip ist ansonsten so am oberen Ende, von dem was ich erwartet hatte.
 
Top