News TU102, TU104, TU106: Nvidias Turing-Chips im (Größen-) Vergleich

Es reden so viele schon von 7nm Fertigung, als wenn der Nachfolger schon in den Startlöchern steht. Kann es nicht sein das man bei so großen Chips auf etablierte Fertigungsverfahren setzt um die Ausfallquote gering zu halten? Dazu ist auch die Frage wie hoch die Kapazität bei den Auftragsfertigern ist, ggf. hat AMD wegen seiner CPU Sparte auch einen besseren Zugriff auf die Kapazitäten und der rest wird von der Mobilfunkindustrie beansprucht (Iphone usw.). Des weiteren dürfte 7nm zwar mehr chips pro Waffer erlauben jedoch werden die Auftragsfertiger höhere Preise bei 7nm Fertigung/pro Waffer verlangen um die hohen Investionen in den Anlagen zu kompensieren.

Dürften nicht wieder 18-24 Monate eher realistisch sein für eine neue Generation nach der RTX 20xx Serie?
 
  • Gefällt mir
Reaktionen: FeelsGoodManJPG
pmkrefeld schrieb:
Die Frage ist eher ob du diese auch abseits von DLSS nutzen darfst ohne für Quadro zu zahlen.

@Topic
Wäre es nicht sinnvoller bei der Größe mehrere Chips zu bauen (Shader + Tensor + Raytracing) und diese dann auf einen Interposer zu packen wie bei HBM-Speicher? So muss doch die Ausfallrate bei der Produktion ziemlich hoch sein.

Ich könnte mir vorstellen das es AMD so machen wird ... Navi(oder ein Nachfolger davon) + Raytracing chip auf einem Interposer verbunden mit InfinityFabric. Ich meine RT-Berechnungen sollten ja erst mal unabhängig berechnet werden ... bei Nvidia sind es ja auch eigene Cores nur halt im Chip integriert.
 
pmkrefeld schrieb:
Eben nicht, wir sprechen hier von keiner CPU sondern einer GPU, es geht darum wie z.B. bei Threadripper mehrere kleine Chips zu belichten statt eines großen. An der Funktionsweise würde sich nichts ändern.
Du siehst welche Nachteile es bei AMDs Produkten mit dem NUMA-Charakter gibt, obwohl die Chips mit 40GB/s untereinander verbunden sind, bei GPUs dagegen ist die Messlatte einen Größenordnung höher.
Interposer wären für die Effizienz eine gute Idee, aber deren Größe stellt auch ein Limit dar bzw. so etwas ist teurer als traces über das Package.
Der beste Kompromiss wäre so etwas wie Intels EMIB-Technologie.

Und dann stellt sich zusätzlich die Herausforderungen die Arbeitslast effektiv zu verteilen, weil GPUs haben Fixed-Function-Rasterizer/Geometrie-Engines und etliche Compute-Units, wo aktuell teilweise flexibel Daten ausgetauscht werden, wenn man das splittet und bei Daten-Abhängigkeiten häufiger zwischen Chips Daten austauschen muss, geht die Performance in den Keller, wenn der Interconnect nicht extrem schnell ist und/oder wenn die Architektur und der ganze Aufbau so designed ist, dass die Verwaltung effektiver abläuft.
 
Palatas schrieb:
Kann es nicht sein das man bei so großen Chips auf etablierte Fertigungsverfahren setzt um die Ausfallquote gering zu halten?
Ja das tut man. Aber bei 7nm sind die auch einiges kleiner. Die neuen kommen aber meist zuerst in Server und andere Märkte. Gamer bekommen das beste gar nicht. Nur hat Nvidia ja extra einen "12nm" Prozess haben wollen. Den nur für einen Chip (GV 100) zu nutzen wäre ja auch Verschwendung. Außerdem hört sich das so neuer an, als 16nm.
 
  • Gefällt mir
Reaktionen: Palatas
jonderson schrieb:
Ja, seine Frage war aber was gekauft wurde.
Mit erfreuen haben einige das festgestellt und Nvidia gekauft.
Zum einen dürfte es unmöglich sein eine entsprechende Statistik zu finden und zum anderen ist es doch vor allem bei der HD5870 vollkommen unerheblich denn das Ding war ständig ausverkauft, weshalb auch die Preise explodierten.
 
pipip schrieb:
Mich würde es jetzt nicht wundern, wenn die Grafikkarten Modelle der 2000 Serie, z. B. Nachfolger der 1060 GTX auch 2060 GTX (nicht RTX) heißen wird, sprich umgelabelte Pascal sein werden.
Unter der 2070 wird es auch keine RTX geben, wurde schon gesagt.
Ich denke aber nicht, dass sie nach 2 Jahren Pascal nur umlabeln, einfach die Tensor und RT shader komplett weglassen und dann Chips mit ~ 2000, 1500, 1000 Shadern rausbringen für 2060,50,40.
Man sieht ja wie stark die Chipfläche angestiegen ist und Nvidia war die letzten Generationen sehr darauf fokussiert die GTX oder Mitteklasse Chips nicht unnötig durch Computing Funktionalitäten aufzublasen.
Und RT auf dem Leistungslevel einer 2060/50 wäre halt lächerlich wenig.
 
ZeroZerp schrieb:
Es ist diesmal wirklich irgendwie schräg. Denn theoretisch sollte das Ding, nach allen Einzelfetzen, die man von nVidia mitbekommt eigentlich alles revolutionieren.

Genau das ist es was mich verunsichert.

ZeroZerp schrieb:
Die Informationshappen:
50% höhere per Core Leistung, 50% mehr effektive Bandbreite durch verbesserte Datenkompression on Top zum GDDR6 Speicher. 10-20% bessere Async Computer Leistung. 20% mehr Kerne. Revolutionäres AA, welches nicht auf die Hauptkerne geht etc. etc. Übertaktung bis 2,5GHz möglich.

Bei den Eckdaten und zu dem Preis erwarte ich eigentlich einen „Game Changer“ wie seinerzeit die GeForce 8800 GTX.

40% schneller als die schnellste Dual-GPU (7950 GX2) oder das größte SLI-Gespann damals (7900 GTX SLI). Einfach eine neu Dimension.

11E33EF0-3E19-4FF7-9DDB-971F604AC397.jpeg


Ich bezweifle aber ganz stark, dass das eintreffen wird.

Ein Leistungsplus von 60% im konventionellen Rendering zum direkten Vorgängermodell, 1080 Ti (100%) > 2080 Ti (160%), wäre das Mindeste was ich zu dem Preis erwarte.

Aber NVIDIA hat über die klassische Renderingleistung überhaupt kein Wort verloren, weshalb ich von 20% ausgehe und das wäre für mich eine riesige Enttäuschung.

Liebe Grüße
Sven
 
  • Gefällt mir
Reaktionen: CBL, TheBear1517, usb2_2 und eine weitere Person
fox40phil schrieb:
Nicht schon wieder das Beispiel...Tesselation war/ist aber Unabhängig vom Kartenhersteller (NV,AMD) und das ist das NV-Raytracing eben nicht!
Dir ist wohl nicht klar, daß Nvidia, wie bei DX12, auf DirectX Raytracing (DXR) von $MS setzt? AMD steht es genauso frei, es zu verwenden.
 
  • Gefällt mir
Reaktionen: Lübke82
RYZ3N schrieb:
Irgendwie habe ich ein ganz mieses Gefühl hinsichtlich der bevorstehenden Tests.

Irgendwas sagt mir, die konventionelle Renderingleistung könnte (gemessen am Preis) eine ganz herbe Enttäuschung werden.

Ich bin gespannt was die unabhängigen Tests sagen.

Und ich bin mittlerweile der Meinung das Turing eine echte Granate wird. Auch und vor allem unabhängig von RT.
 
  • Gefällt mir
Reaktionen: Lübke82
ruthi91 schrieb:
Unter der 2070 wird es auch keine RTX geben, wurde schon gesagt.
Wo steht das denn? m.E. wurde die schlicht nicht angekündigt und das erst das obere Marktsegment abgedeckt wird ist überall so. Ich warte aber auf 2070, 2 Slot Custom Lösungen.
 
Zuletzt bearbeitet:
Inxession schrieb:
Und ich bin mittlerweile der Meinung das Turing eine echte Granate wird. Auch und vor allem unabhängig von RT.

Dann hoffe ich mal, dass das eintrifft und du recht behalten wirst. Was mich am meisten wundert, ist die Tatsache, dass es rund um die eigentlich Leistungsfähigkeit (seitens NVIDIA) bisher so ruhig geblieben ist.

Lassen wir uns überraschen.

Liebe Grüße
Sven
 
Dank DLSS könnten durchaus 50%+ rausschauen, wenn man mit 8xAA vergleichen kann und dieselbe Bildqualität schafft. Aber ohne zu wissen wie gut nun DLSS wirklich arbeitet ist auch das nur reine Spekulation.
 
  • Gefällt mir
Reaktionen: Lübke82
RYZ3N schrieb:
Aber NVIDIA hat über die klassische Renderingleistung überhaupt kein Wort verloren, weshalb ich von 20% ausgehe und das wäre für mich eine riesige Enttäuschung.

Ihr vergesst immer die gezeigte UE4-Demo, wo Turing gut 80% schneller war als eine 1080Ti. Sicher wird das ein herausgepicktes Extrembeispiel sein. Aber über die nicht-RT-Leistung wurde was gesagt. Besser aufpassen! ;-)
 
TheGreatMM schrieb:
Wo steht das denn? m.E. wurde die schlicht nicht angekündigt und das erst der obere.

PCGH vermutet in einem Artikel schon dass es unterhalb der 2070 RTX gar nichts Turingmäßiges geben wird. Es wird einfach Pascal weiterverkauft. Zumindest solange wie sie noch Chips rumliegen haben die die Miner nicht abgekauft haben :D
Danach könnte evtl. was kommen, da soweit ich micht recht erinnere Pascal nicht mehr produziert wird.
Aber da niemand weiß wie viele Pascal-Chips nVidia auf Halde hat, weiß auch niemand wann "Danach" ist.
 
  • Gefällt mir
Reaktionen: Lübke82
Ja, über die Nicht RT-Leistung hat sich auch ein NVIDIA-Mitarbeiter in einem Interview geäußert. Da war man bei 40-50%. Das wird aber auch geschönt sein bzw. werden da mit Sicherheit auch Titel samt HDR mit eingeflossen sein - da wo Pascal Leistung verliert. Turing wird nicht der Kracher werden, sonst hätte Nvidia nicht direkt zum Start die Ti-Variante gebracht. Ich gehe eher davon aus, dass eine RTX2080 auf Niveau der 1080 Ti liegen wird (FE vs. FE liegt die 2080 leicht vorne) und die Ti dann noch einmal 30% draufsetzen wird. Manche Tech-Youtuber gehen eher von 20% aus. Das ist zu wenig für den aufgerufenen Preis, RT-Cores hin oder her.

Kommt AMD 2019 mit 7nm GPUs auf den Markt wird NVIDIA mit Sicherheit mitziehen wollen. Dann ist die erste Generation RTX schneller Alteisen und nicht mehr interessant.
 
Na warten wir es einfach mal ab. Wenn überhaupt mal wieder was brauchbares kommt von AMD im HE-Bereich.
 
Locuza schrieb:
Du siehst welche Nachteile es bei AMDs Produkten mit dem NUMA-Charakter gibt, obwohl die Chips mit 40GB/s untereinander verbunden sind, bei GPUs dagegen ist die Messlatte einen Größenordnung höher.

Numa spielt bei einer GPU gar keine Rolle :rolleyes:
Es nicht darum eine Art SLI auf ein Package zu kleben, sondern darum die einzelnen Bestandteile einer GPU separat zu belichten. Auf diese Weise dürften sich Chips realisieren lassen die sehr viel größer sind als alles was wir bisher gesehen haben. Stelle dir mal vor statt eines Riesenchips mit 8192 Shader 4 Chips mit jeweils 2048 zu belichten und dann auf ein Package zu packen.

Was ich nicht beurteilen kann ist ab welcher Größe die Lichtgeschwindigkeit einem einen Strich durch die Rechnung macht und die durch die Schiere Fläche die Latenzen innerhalb des Chips zu hoch werden.
 
RYZ3N schrieb:
Irgendwie habe ich ein ganz mieses Gefühl hinsichtlich der bevorstehenden Tests.

Irgendwas sagt mir, die konventionelle Renderingleistung könnte (gemessen am Preis) eine ganz herbe Enttäuschung werden.

Ich bin gespannt was die unabhängigen Tests sagen.

Liebe Grüße
Sven
Genau so wird es auch kommen, die 2080 liegt auf dem Niveau der 1080TI und die 2080TI wird so 15-20 FPS mehr drücken denke ich. Nächste Woche wissen wir mehr :)
 
  • Gefällt mir
Reaktionen: CBL
Zurück
Oben