News Nvidia Quadro RTX: Turing mit bis zu 16 TFLOPS und RT-Cores für Raytracing

Wolfgang

Redakteur
Teammitglied
Registriert
Nov. 2002
Beiträge
8.547
Holla, das hört sich ja recht spektakulär an. Scheinbar hat Nvidia in der >2 Jahre langen Flaute nicht gefaulenzt.
Anders als Intel es vmtl. getan hätte. :D
G-sync nehme ich ihnen trotzdem übel.
 
  • Gefällt mir
Reaktionen: LamaTux, patze182, valnar77 und 10 andere
Wenn die Quadro noch vor den GeForce kommen und das wirklich erst im vierten Quartal passiert, dann gibts also neue Spielerkarten erst Anfang 2019. Somit sollten sich die Fragen danach, ob man jetzt noch kaufen soll erübrigt haben.
 
  • Gefällt mir
Reaktionen: rambodieschen, Mcr-King und Karl S.
  • Gefällt mir
Reaktionen: Sbibi
Roche schrieb:
Wenn die Quadro noch vor den GeForce kommen und das wirklich erst im vierten Quartal passiert, dann gibts also neue Spielerkarten erst Anfang 2019. Somit sollten sich die Fragen danach, ob man jetzt noch kaufen soll erübrigt haben.
Genau, man sollte es nicht.

Da die Preise jetzt, zwei Jahre nach dem Erscheinen immer noch etwa auf Veröffentlichungsniveau sind, kann man das nicht unterstützen. Das sind reine Wucherpreise.

Für zwei Jahre alte Hardware den Vollpreis als das Zeug neu war? Ich denke nicht, dass es klug ist das zu zahlen.
 
  • Gefällt mir
Reaktionen: paulemannsen, John Reese, KamonegiX und 27 andere
Wolfgang schrieb:
Die neuen Quadro-Grafikkarten im Vergleich
Quadro RTX 8000 Quadro RTX 6000 Quadro RTX 4000
die modelle heissen aber Quadro RTX 8000, 6000 und 5000, nicht 4000. auch die preise wurden anders genannt:
Screenshot_2018-08-14 NVIDIA Special Event at SIGGRAPH 2018.png
 
So langsam wird es wieder interessant am Markt! Ich bin auf den Verbrauch und die effektive Leistung gespannt :)
 
  • Gefällt mir
Reaktionen: rambodieschen
Raytracing hört sich für mich nach Rohrkrepierer an... gibt doch kaum anwendungen für DX12 und das wird sich auch nicht so schnell ändern, wieso sollten auch die Spieleentwickler umständlich jede einzelne Grafikkarte über die API Optimieren wenn es so einfach mit DX11 auch funktioniert, macht einfach keinen Sinn.

Ich will mir keine neue Graka kaufen die erst in 3 Jahren und dann auch nur vielleicht (falls es dann genug DX12 Spiele geben sollte) ordentlich Performance liefert.

Das still schweigen über Spielegrafikkarten gefällt mir überhaupt nicht.
 
  • Gefällt mir
Reaktionen: rambodieschen, LamaTux, Mcr-King und 12 andere
100GB hätt ich gern bei einer SSD als Übertragungsgeschwindigkeit....
OMG, ich glaub ich krieg nen St...., so geil find ichs. :D

Ich bin mir sicher, kommt AMD in die Gänge, wird sich bei den GPU´s genauso viel tun wie bei den CPU´s.
 
  • Gefällt mir
Reaktionen: Mcr-King
Nun, auf Geforce-Releases darf man dementsprechend wohl noch warten. Sollte auf der Gamescom hierzu nichts angekündigt werden, könnte es leicht 2019 werden, zumal nicht damit zu rechnen ist, dass die Quadro-Chips unverändert auf Gaming-Karten zum Einsatz kommen.
 
By using Turing’s hybrid rendering capabilities, applications can simulate the physical world at 6x the speed of the previous Pascal™ generation.

Alles weiter sind theoretische Angaben, wenn das über die Tensor Cores beschleunigte Denoising, Upscaling, und die Zwischenbildberechung genutzt werden.

"DLAA — deep learning anti-aliasing, which is a breakthrough in high-quality motion image generation — denoising, resolution scaling and video re-timing. "

Erstmal sind das theoretische Werte der Hardware. Fraglich ist auch, ob man das aufgrund der Genauigkeit mit den "Rays per Second/Leistung" einer CPU vergleichen kann. Corona Render, welcher auf Intel Embree basiert, produzierte aufgrund der höheren Genauigkeit wesentlich weniger Rauschen und benötigt somit auch nur halb soviel Rays, im Vergleich mit einem GPU basierten Renderer.
Mal abwarten, wie die ersten Implementierungen laufen und welche Performance diese zeigen.
 
Hört sich interessant an. Ich zocke in der letzten Zeit kaum mehr, so dass ich mir wohl keine neue Graka anschaffen werde.
 
  • Gefällt mir
Reaktionen: geekay und Hatsune_Miku
Wieder nur ein typischer Shrink... ah moment nein, dass ist durchaus bahnbrechend. Real Time Raytracing ist und war der ultimative Traum. Das ist vermutlich erst der Anfang, in 5 bis 10 Jahren koennte das aber nen mega Durchbruch sein, fast schon wie das erscheinen von 3D Beschleunigern allgemein.

Naechste Woche auf der Gamescom werden wir etliche Spiele mit Raytracing support sehen. Da wird Nvidia schon fuer Sorgen. MeinTip: Battlefield 5 als Steckenpferd.

Dank der extremen Marktmacht ist es diesmal auch recht einfach das durchzusetzen. Die Konkurrenz ist derzeit tot im oberen Segment. Das mal der kleine Vorteil wenn man alleine dasteht immerhin, der Nachteil: Nvidia kann klassische Monopolpreisbildung durchsetzen, die zu minimaler Wohlfahrt fuehrt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .Sentinel.
Es wurde inzwischen auch was für GeForce geteasert:
 
  • Gefällt mir
Reaktionen: raphe und derSafran
Nvidia wird sich den Weihnachtsmarkt nicht durch die Finger gehen lassen. Die Verfügbarkeit wird sicherlich nicht optimal sein, aber wer unbedingt will wird die neuen Gaming GPUs noch 2018 bekommen.
 
Wir müssen uns also an einen neuen Namen gewöhnen...

Ich hoffe sie sprechen bei der Vorstellung der RTX 2080 weniger über Raytracing und Co... das wird eh noch dauern, bis man das flächendeckend im Spielen sieht.
 
Wow, der Nebel lichtet sich und doch bleiben viele Fragen offen.

Wie schnell Turing in Spielen sein wird, bleibt indes weiterhin unklar. Die RT- sowie Tensor-Kerne müssen von der Software unterstützt werden, damit sie einen Vorteil bringen.

Und damit sitzt Nvidia im gleichen Boot wie AMD, die mit den ganzen Vega-Features auch erstmal im Abseits rumstehen und auf die Software-/Spieleentwickler warten, denn diese müssen es einbauen/aktiveren.

Um das zu erreichen wurde die Grafik-Pipeline erweitert, Nvidia spricht von einer „neuen, programmierbaren Shading-Technologie“.

Erinnert wieder an AMD, nämlich deren Primitive-Shader.

De-Noising und AI Inference eignen. Die Raytracing-Leistung der RT-Kerne in Verbindung mit den Tensor-Cores soll gegenüber Pascal um den Faktor 25 höher sein und um Faktor 30 höher als mit modernen CPUs. Nvidia nennt 10 Gigarays in der Sekunde für Turing.

Die Leistungssteigerung hört sich immens an, allerdings kann ich das überhaupt nicht einschätzen. Die Frage ist doch letztlich, ob die Performance überhaupt schon ausreicht, damit die Features sinnvoll eingesetzt werden können oder ob es immer noch eher im Bereich Spielerei / Machbarkeitsstudie / Techdemo liegt.

CUDA-Cores, RT-Cores, Tensor-Cores

Mit Begriffen um mich werfen kann ich auch: Vertex-Shader, Pixel-Shader und Fragment-Shader. In Hardware umgesetzt sind diese derzeit als Unified Shader. Und um die Auslastung zu erhöhen nutzt man Asynchronous Compute. Dazu kommen dann noch die NCUs von AMD und die Berechnungen in FP8 und FP16 ;)

Ich bin gespannt, wie die RT-Cores von Nvidia tatsächlich aufgebaut sind und welche Art von Berechnungen sie beschleunigen.

Insgesamt ist Raytracing eni spannendes Thema. Wie man das in Hardware am besten beschleunigt? Reicht vielleicht sogar eine besonders flexible Compute Shader Architektur, wie sie bereits AMD hat? ;)
 
  • Gefällt mir
Reaktionen: Iscaran, LamaTux, Mcr-King und 3 andere
Raytracing gibt ab einer gewissen Szenenkomplexität, also Polygone mal dynamische Lichtquellen, Performancevorteile, die sehr eklatant ausfallen können. Die Richtung ist definitiv die richtige, allein die Konsolen werden nicht mithalten. Der Chip ist ansonsten so am oberen Ende, von dem was ich erwartet hatte.
 
Zurück
Oben