News Nvidia Quadro RTX: Turing mit bis zu 16 TFLOPS und RT-Cores für Raytracing

Dann fallen die Vegas hoffentlich noch ein bisschen. Die Vega 64 bekommt man schon für 489€ :]
HBM-Preis hin oder her, da wird noch was gehen!
 
  • Gefällt mir
Reaktionen: Syrato
NA wo sind die ganzen Insider die immer wieder behauptet haben das Nvidia hier keine Quadro bringt? :lol:
Von der Leistung her klingt das alles erst mal interessant aber die ganzen Zusatzfeatures müssen erst mal genutzt werden, AMD geht es hier nicht anders. Abwarten was da noch kommt.
 
  • Gefällt mir
Reaktionen: stoneeh
Leider keinerlei belastbare Aussage zu den Gamer Karten. Also wieder nix. Das jetzt massenhaft Spiele mit Raytracing rauskommen glaube ich auch nicht. Die Beta von BF5 hätte da ja schon einiges zu Tage fördern müssen bzw. Ansätze wären wie immer aufgedeckt worden. Also muss man wie bereits geschrieben auf die neuen Spiele mit der Unterstützung warten. Hier stellt sich die Frage, wie stark Nvidia da wirklich aufgestellt ist. Denn da die aktuellen Konsolen und auch die nächste Generation der Konsolen auf AMD setzt, wird es in dieser Richtung kein Interesse der Spieleentwickler geben, etwas zu implementieren was nicht genutzt wird. Und wie sinnvoll ist das aktuell für uns als Spieler, wenn außer den beiden großen neuen Karten keine andere Karte das Raytracing in Echtzeit unterstützt? Diese werden dann Raytracing nicht entsprechend beschleunigen können.

Ich bin hier eher skeptisch.
 
  • Gefällt mir
Reaktionen: FreedomOfSpeech und ScorpAeon
Überrascht dich das wirklich, wird bestimmt das neue Killer Feature um AMD Karten und ältere NV Karten auszubremsen damit sich auch ja jeder die neue Geforce RTX kauft.
Von NV war doch nichts anderes zu erwarten, in 6 Monaten gibts dann bestimmt die open source Version von AMD.
Bin mal gespannt wieviel Leistung der Kram am Ende kostet, wird bestimmt darauf hinauslaufen das man unter einer 2080ti das Zeug garnicht erst aktivieren muss.
 
  • Gefällt mir
Reaktionen: LamaTux, Modar, Herr Melone und 7 andere
Seskahin schrieb:
wenn außer den beiden großen neuen Karten keine andere Karte das Raytracing in Echtzeit unterstützt?
Dann spielen wir Egoshooter halt Rundenbasiert :evillol:

Ich hab das Gefühl, früher wurden neue Technologien in Spielen viel schneller umgesetzt. Da war dann eher jeder gezwungen sich für die neuen Spiele eine neue Grafikkarte anzuschaffen. Heute warten wir auf die Spiele, die die Funktionen der alten GPU mal nutzen...
 
  • Gefällt mir
Reaktionen: AlphaKaninchen und Faust2011
m.Kobold schrieb:
Ich will mir keine neue Graka kaufen die erst in 3 Jahren und dann auch nur vielleicht (falls es dann genug DX12 Spiele geben sollte) ordentlich Performance liefert.
Die Leute programmieren ihre engine selten selbst. Sobald die engines dx12 und raytracing unterstützen, wird es auch in Spielen auftauchen. Und die Unreal engine und frostbite sind immer sehr schnell bei neuen Sachen dabei.
Diablokiller999 schrieb:
Super, eine proprietäre Raytracing Implementierung, darauf hat der Kunde gewartet...
Ist nicht proprietär. AMD kann das auch beschleunigen wie vxgi.
 
  • Gefällt mir
Reaktionen: FreedomOfSpeech
Seskahin schrieb:
Leider keinerlei belastbare Aussage zu den Gamer Karten
Ich bin hier eher skeptisch.

In dem Video bei Post 15 hat nVidia die RTX2080 Präsentation hier in Köln bestätigt.

watch the trailer again, look at the chat display names, RoyTeX = RTX Mac-20 = 20 Series Eight-Tee = 80 NVIDIA RTX 2080
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: FreedomOfSpeech und RealGsus
m.Kobold schrieb:
Raytracing hört sich für mich nach Rohrkrepierer an... gibt doch kaum anwendungen für DX12 und das wird sich auch nicht so schnell ändern, wieso sollten auch die Spieleentwickler umständlich jede einzelne Grafikkarte über die API Optimieren wenn es so einfach mit DX11 auch funktioniert, macht einfach keinen Sinn.

LeChris schrieb:
Raytracing gibt ab einer gewissen Szenenkomplexität, also Polygone mal dynamische Lichtquellen, Performancevorteile, die sehr eklatant ausfallen können.

Das gibt eine erste Antwort. Bei einer Workstation Karte macht Raytracing noch mehr Sinn, da viele profesionelle Grafikprogramme mit damit arbeiten.
 
Aphelon schrieb:
Ich hab das Gefühl, früher wurden neue Technologien in Spielen viel schneller umgesetzt. Da war dann eher jeder gezwungen sich für die neuen Spiele eine neue Grafikkarte anzuschaffen.

Ja, das war noch die Zeit der Voodoo-Karten, 3dfx, Doom und id-Software. Wenn man sich den Quellcode von Doom/Quake ansieht (der inzwischen frei zugänglich ist), dann ist es der Wahnsinn, was ein John Carmack und Kollegen an Optimierungen hier reingesteckt hatten. :daumen:

Ich könnte mir vorstellen, dass auch Spielestudios heutzutage ein modernes Management fahren: Da wird halt nicht investiert bzw. nur mit überschaubarem Risiko. Das Resultat ist, dass jeder € (bzw. $) dreimal umgedreht wird und die Kosten gespart und nur bewährtes benutzt werden darf - kaum Platz für Innovation. Sehr schade, aber das ist gerade der Zeitgeist.
 
@raphe ja hab ich gesehen, aber es ist nur angekündigt, dass was angekündigt ist. Das meinte ich mit der Aussage. Was bringen die kleinen Karten und was ändert sich an der Arch. Wie sind die neuen Karten wirklich aufgestellt. Wann bringen die Tensor Cores was in "alten" Spielen, ohne explizite Unterstützung.
Ich denke das ist auch ein Grund, warum die Karten so spät kommen. Was bringen mir die neuen Karten mit den neuen Features, wenn ich kein Spiel habe, in denen ich diese nutzen kann als Vorteil?
Ich halte es wirklich für realistisch, dass NVidida mit dem Verkauf wartet, bis wenigstens ein Spiel zeigt, was die Karten können. Sonst wäre der Test ja auch wirklich mager.
In diesem Zusammenhang muss man auch die Frage stellen, auf welche Berechnungen sich die gesteigerterten Leistungsangaben von NVidia beziehen, die im Leak waren. Gelten diese nur theoretisch, wenn die neuen Features unterstützt werden, oder ist es mit aktuellen AAA Spielen in Korrelation gebracht worden?
Entweder bringen die Tensor Cores auch etwas mit der alten DX Schnittstelle, das wäre natürlich gut für uns, weil die Steigerungen dann sofort da wären, oder sie müssen wirklich explizit durch die Engine angesprochen werden. Dann sehe ich da schon etwas schwarz am Anfang.
 
Raytracing ist das neue PhysX.

Wird ein paar von Nvidia gesponsorte Spiele geben die das nutzen werden, abseits davon wird man nicht viel zu sehen bekommen.
 
  • Gefällt mir
Reaktionen: Mcr-King, Herr Melone, Toprallog und 3 andere
  • Gefällt mir
Reaktionen: EMkaEL
Seskahin schrieb:
Ich halte es wirklich für realistisch, dass NVidida mit dem Verkauf wartet, bis wenigstens ein Spiel zeigt, was die Karten können.
Naa... die Karten werden vermutlich auch so ein gutes Stück Leistung bringen, sodass sich viele, die jetzt eine 1080ti haben, gleich umsteigen werden. nVidia will immerhin den maximalen Gewinn und keinen Ladenhüter und ich glaube nicht, dass sie da jetzt noch lange warten...
 
Faust2011 schrieb:
Und damit sitzt Nvidia im gleichen Boot wie AMD, die mit den ganzen Vega-Features auch erstmal im Abseits rumstehen und auf die Software-/Spieleentwickler warten, denn diese müssen es einbauen/aktiveren.
Nur besitzt Nvidia deutlich mehr Manpower und Finanzen, um Software-Support zu beschleunigen und umzusetzen.

Erinnert wieder an AMD, nämlich deren Primitive-Shader.
Klingt erst einmal ähnlich, im Gegensatz zu AMD wird es aber vermutlich auch wirklich verfügbar sein.

Die Leistungssteigerung hört sich immens an, allerdings kann ich das überhaupt nicht einschätzen. Die Frage ist doch letztlich, ob die Performance überhaupt schon ausreicht, damit die Features sinnvoll eingesetzt werden können oder ob es immer noch eher im Bereich Spielerei / Machbarkeitsstudie / Techdemo liegt.
Sinnvoll ist immer relativ, aber es deutet sich an das für hybride Einsätze das schon verwendet werden kann.

Mit Begriffen um mich werfen kann ich auch: Vertex-Shader, Pixel-Shader und Fragment-Shader. In Hardware umgesetzt sind diese derzeit als Unified Shader. Und um die Auslastung zu erhöhen nutzt man Asynchronous Compute. Dazu kommen dann noch die NCUs von AMD und die Berechnungen in FP8 und FP16 ;)
Bezüglich Tensor-Cores und Raytracing-*Cores* hat AMD bisher keinen Äquivalenten in der Hardware stecken.
NCUs können Double-Rate FP16 und Quad-Rate INT8, nicht FP8.

Ich bin gespannt, wie die RT-Cores von Nvidia tatsächlich aufgebaut sind und welche Art von Berechnungen sie beschleunigen.
Wohl Raytracing Intersection und BHV traversel.
Prinzipiell wird die Hardware sicherlich ähnliche Dinge beschleunigen wie die Wizard GPUs von Imagination.

Insgesamt ist Raytracing eni spannendes Thema. Wie man das in Hardware am besten beschleunigt? Reicht vielleicht sogar eine besonders flexible Compute Shader Architektur, wie sie bereits AMD hat? ;)
Nein, denn ansonsten würden die GPUs schon jetzt Raytracing in annehmbarer Geschwindigkeit berechnen können.
 
  • Gefällt mir
Reaktionen: Hardware_Hoshi, Ludwig55, FreedomOfSpeech und eine weitere Person
johnieboy schrieb:
Raytracing ist das neue PhysX.

Das bezweifle ich. Langfristig wird Rasterization abgelöst werden. Die Ergebnisse (Optik!) sieht doch viel besser aus und auch die Effekte sind einfacher zu programmieren. Diese Tricksereien mit Schattenberechnung, ... per Z-Buffer, Ambient Occlusion, ... Lightmaps, Shadowmaps, usw. ist doch inzwischen viel zu komplex.
 
  • Gefällt mir
Reaktionen: AlphaKaninchen, cruse und .Sentinel.
Wenn die Features so für die Gamerkarten kommen, dann sollten die Leute die AMD verdroschen haben das so viele Features von Entwickler erst implementiert werden müssen, auch hier drauf hauen.(Die Features wird aber wahrscheinlich öfters sehen als AMDs, da einfach Nvidia das Geld und die Marktmacht hat)

Vielleicht wird das ja mal Nvidia's erste Fine Wine Gen:evillol:
 
  • Gefällt mir
Reaktionen: Baal Netbeck
usb2_2 schrieb:
Wie oft musste ich hören, dass es keine neuen quadros gibt? Jetzt fehlt nur noch die GeForce RTX.

Meine Bedenken gingen und gehen eher in die andere Richtung. Deshalb lässt mich diese Meldung auch ausgesprochen kalt.

Daran, dass Nvidia (und auch AMD) regelmäßig neue Profi-Karten/GPUs (für "Deep Learning" und Co.) bringen, hat doch niemand gezweifelt. Da existiert derzeit offenbar großer Bedarf und es locken hohe Gewinnmargen.

Die große Frage ist, ob und wann sich jemand erbarmt, auch mal wieder neue Consumer-/Gaming-Produkte zu bringen.

Der Pessimist in mir sagt, dass wir uns besser damit abfinden, noch viele Monate oder gar Jahre nichts wirklich neues zu sehen, sondern bestenfalls umbenannte, milde Aufgüsse alter Technik zu gewohnt abgehobenen Preisen.

Jedenfalls sind auch am entferntesten Horizont immer noch keine neuen Consumer-Produkte auszumachen (nur mehr oder weniger aus den Fingern gesaugte Gerüchte, die wohl eher nur Wunschdenken sind), und das über 2 Jahre nach der Einführung der "aktuellen" Generation.

Zwei Konkurrenten sind offensichtlich einfach nicht genug für einen gesunden Wettbewerb. Zwischen Nvidia und AMD herrscht an der Consumer-GPU-Front jedenfalls ein unausgesprochener Waffenstillstand. Es fehlt der "hungrige" Dritte, der den Stillstand der beiden Großen ausnutzt und ihnen wieder Feuer unterm Hintern macht.

(Wenigstens tut sich an der CPU-Front noch etwas.)
 
  • Gefällt mir
Reaktionen: [wege]mini und Cpt.Willard
Schön dass endlich Bewegung in die Sache kommt. Jetzt stellt sich nur die Frage wie lange NVIDIA die neuen GPUs noch zur- und den Abverkauf der alten GPUs aufrechterhalten kann.

Neuer Name, neue Features, Fokus auf Retracing, dass das kein günstiger Spaß wird ist sehr wahrscheinlich.

Auch wenn ich den Zusatz „RTX“ bei einem Gamingprodukt für wenig passend finde, freue ich mich auf mehr Details und erste Tests.

Könnte sich aber noch bis weit ins Q1/2019 hinziehen.

Liebe Grüße
Sven
 
  • Gefällt mir
Reaktionen: Kazuja
Zurück
Oben