News TU102, TU104, TU106: Nvidias Turing-Chips im (Größen-) Vergleich

MichaG

Redakteur
Teammitglied
Registriert
Juli 2010
Beiträge
12.924
Dass eine xx106-GPU einen kleinen Chip für die Mittelklasse darstellt, ist mit Turing ebenso Geschichte: TU106 wäre mit 445 mm² mehr als doppelt so groß wie der GP106 und sogar rund 42 Prozent größer als der auf der GeForce GTX 1070 und GTX 1080 eingesetzte GP104.
(...)
Die zusätzlichen Rechenwerke für Deep Learning (Tensor Cores) und Raytracing (RT Cores) benötigen nun einmal mehr Platz.


D.h. es wird TensorCores in TU102, TU104 und TU106 geben?

Das wäre ja sehr erfreulich.
 
Dass eine 2070 Tensor Cores hat wusste man ja schon. Die Überraschung wird eher sein, dass bei der 2070 ein 106er Chip zum Einsatz kommt.
 
  • Gefällt mir
Reaktionen: Zockmock, Lübke82 und ActionNews
@ascer:

Was ist daran jetzt neu? Das war doch seit der Präsentation bekannt. Es wurde lediglich gemunkelt das die kleineren Modelle (2060 abwärts) diese eben nicht bekommen und als GTX auf den Markt geworfen werden/Pascal rebranden.
 
  • Gefällt mir
Reaktionen: dennisis
Ob die größere Chipgröße nur den RT und Tensor Cores geschuldet ist?
...oder ist mehr Leistung atm nur mit einem größeren DIE möglich?

...und gleich kommt das Nvidia gebashe: "Ein größerer Chip muss doch weniger kosten als der Vorgänger" :D
 
  • Gefällt mir
Reaktionen: lalelu und Lübke82
Irgendwie macht der Chip ja wenig Sinn, wenn er auch 256 Bit hat und die Shaderzahl ist auch nicht so viel geringer...

Aber bei der DIE Fläche sind wahrscheinlich Teildefekte Chips zu teuer. Wenn die Yield Rate stimmt, kann es sich lohnen, einfach kleinere Chips zu bauen.
 
TU106 ist trotzdem die Mittelklasse, solange man auf die 107 und 108 wartet und es keinen TU100 gibt. Dann wird der Chip auch noch degradiert.
 
Jetzt da nVidia eine Fast-Monopolstellung hat, blasen Sie ihre Chips für ihre Technologien auf. Das erinnert mich irgendwie an Intel.. Wenn AMD es schafft mit einem neuen, sehr kleinen und günstigen Chip zurückzuschlagen dann will keiner mehr Raytracing haben für über 1000€ :lol:
 
  • Gefällt mir
Reaktionen: paulemannsen, wei3nicht_T, Zockmock und 4 andere
ascer schrieb:
D.h. es wird TensorCores in TU102, TU104 und TU106 geben?
Aldaric87 schrieb:
Was ist daran jetzt neu? Das war doch seit der Präsentation bekannt.

Das muss ich in der Präsentation übersehen haben.

Ich hatte öfter davon gehört, dass man wie man bei Pascal/Volta mit Turing/Ampere professionell noch weiter von Gaming trennen will, insofern hätte ich mir keine TensorCores für GTX/RTX vorstellen können.

Was sehr schade wäre, denn die 1070 bis 1080 Ti wird ja sehr, sehr häufig zu Hause und auch in Unis für Deep Learning Workstations verbaut.

Dann ist man also auch zukünftig nicht gezwungen, eine Titan oder höher für Deep Learning Workstations anzuschaffen :)
 
ascer schrieb:
D.h. es wird TensorCores in TU102, TU104 und TU106 geben?
.

Die Frage ist eher ob du diese auch abseits von DLSS nutzen darfst ohne für Quadro zu zahlen.

@Topic
Wäre es nicht sinnvoller bei der Größe mehrere Chips zu bauen (Shader + Tensor + Raytracing) und diese dann auf einen Interposer zu packen wie bei HBM-Speicher? So muss doch die Ausfallrate bei der Produktion ziemlich hoch sein.
 
  • Gefällt mir
Reaktionen: ActionNews und stevefrogs
Puscha schrieb:
sehr kleinen und effizienten Chip zurückzuschlagen dann will keiner mehr Raytracing haben für über 1000€
4870
5870
Was wurde gekauft?
 
  • Gefällt mir
Reaktionen: Pulsar77, Ceberus, duskstalker und eine weitere Person
pmkrefeld schrieb:
Wäre es nicht sinnvoller bei der Größe mehrere Chips zu bauen (Shader + Tensor + Raytracing) und diese dann auf einen Interposer zu packen wie bei HBM-Speicher
GPUs sind angeblich noch nicht soweit. Navi sollte Mal so werden, wird aber wohl auch ein Chip
 
Che-Tah schrieb:
...und gleich kommt das Nvidia gebashe: "Ein größerer Chip muss doch weniger kosten als der Vorgänger" :D

Und da haben wir wieder wen, der die Kritik der Spieler immer noch nicht verstanden hat. Die Leute interessieren sich einen feuchten Dreck für den größeren Chip. Der Chip ist durch Funktionen aufgeblasen, die als Verkaufsargument Nr. 1 zählen. Wenn allerdings dann die tollen beworbenen RT Spiele grad mal auf 1080p mit 60 FPS laufen mit RT, ist das für viele kein Mehrwert, daher wird der Preis kritisiert. Die wenigsten spielen mit einer 2080 Ti auf FHD Auflösung. Niemand hat nVidia gezwungen eine "nicht ausgereifte" Technik in den Consumer-Markt zu zwängen, anstatt sie im Profi-Segment reifen zu lassen. So sind sie selbst Schuld das der Chip so riesig ist. (aber für viele Spieler kaum Mehrwert bietet)
 
  • Gefällt mir
Reaktionen: Raycrate, Zockmock, stoneeh und 11 andere
  • Gefällt mir
Reaktionen: Zockmock und fox40phil
usb2_2 schrieb:
GPUs sind angeblich noch nicht soweit. Navi sollte Mal so werden, wird aber wohl auch ein Chip

Na das Navi auf MCM setzt war ein Gerücht. Viele kamen deshalb auf die Idee, weil der IF ja praktisch vorhanden ist und Lisa Su sagte, dass Navi eine modulare GPU Architektur wird. Nun geht man aber wohl eher davon aus das modular in dem Sinne gemeint ist, als das man die Compute-Funktionen für den Consumer-Markt entfernen kann. Damit steigert sich die Effizienz deutlich. (+ 7nm Fertigung)
 
  • Gefällt mir
Reaktionen: ActionNews
Die 2070 hat also nur noch genau die Hälfte der RT Cores der 2080ti - scheint dann wohl eher ne 1080p 30 FPS anstatt 60 FPS Nummer zu werden bei der 2070 mit aktiviertem RT ^^
 
  • Gefällt mir
Reaktionen: paulemannsen, Zockmock, stoneeh und eine weitere Person
@anexX

Genau das habe ich mir bei der Tabelle auch gedacht. Oder sie werden je nach Spiel die Effekte auf solch ein Minimum reduzieren, dass RT absolut keinen Mehrwert bietet, jedoch 50% der FPS frisst. :daumen:
 
  • Gefällt mir
Reaktionen: paulemannsen, Zockmock, fox40phil und eine weitere Person
ascer schrieb:
D.h. es wird TensorCores in TU102, TU104 und TU106 geben?
pmkrefeld schrieb:
Die Frage ist eher ob du diese auch abseits von DLSS nutzen darfst ohne für Quadro zu zahlen.

Bei früheren Titan- oder GTX-Karten gab es da doch auch keine Einschränkung, abgesehen von Cluster-Use im Rechenzentrum.

Mal abgesehen davon: im Rechenzentrum läuft z.B. SLURM mit angepassten Linux OS und häufig ja auch die professionellen Treiber usw. - da kann man sicherlich schnell einen Riegel vorschieben.

Auf einer Deep Learning Workstation hingegen ist ganz normal Debian, Ubuntu, Arch, ... mit den Standardtreibern installiert. Da lässt sich ja auch gar nicht feststellen, ob da jemand einfach nur unter Linux unterwegs ist oder das für Deep Learning nutzt.
 
Für mich wird's stark auf die Qualität und die Verfügbarkeit von DLSS ankommen, ob ich eine Turing kaufe oder nicht. RT finde ich technisch toll, aber es zeichnet sich schon ab, dass es in dieser Generation wohl eher noch kein "must have" sein wird. Und die Leistungssteigerung im konventionellen Rendern ( wenn die +~35-45% denn stimmen) ist mir den Preis vermutlich auch nicht wert.
 
  • Gefällt mir
Reaktionen: stoneeh
Zurück
Oben