News GeForce RTX 3080: Tensor-Kerne im Vergleich zu Turing und A100

Robert

Redakteur
Teammitglied
Dabei seit
Feb. 2009
Beiträge
1.443

VYPA

Lt. Commander
Dabei seit
Sep. 2004
Beiträge
1.828
TL;DR - lasse mir den Inhalt von Igor vortragen. Sehr unterhaltsam :daumen:
 

.Snoopy.

Lieutenant
Dabei seit
Juli 2008
Beiträge
645
Danke für die Information. Dann wird wohl in den nächsten Generationen bezüglich der Datentypen nicht mehr viel zu beschleunigen sein. Es wurde ja diesmal anscheinend da sehr viel optimiert.
 

Xes

Rear Admiral
Dabei seit
Nov. 2013
Beiträge
5.763
Wofür werden die Tensor Cores denn in der Praxis schon genutzt?
DLSS klar, aber ansonsten?

In der kreativ Branche gibt es ja schon Software die mit Ai/Ki beschrieben wird (z.B. Ai Upscaling von Topaz Labs oder DeepFaceLab) nutzen diese Programme die Tensor Cores oder läuft das über die normalen Cuda Cores?
 

Colindo

Lt. Commander
Dabei seit
Dez. 2015
Beiträge
1.749
@Robert Sind die Tensor-Kerne in FP32 jetzt nur doppelt so schnell, bei gleichzeitig halbierter Anzahl, oder gilt die am Ende genannte Beschleunigung von x2,7 für die Gesamtleistung? Bei DLSS war ja der Geschwindigkeitsgewinn prozentual der Gleiche wie bei Turing.
Ergänzung ()

@Xes Das Denoising in Blender geht mittlerweile auch über die Tensor-Cores. Und Ai-Funktionen sollten normalerweise auch direkt die Tensor-Cores nutzen, die sind da einfach deutlich schneller als Cuda-Cores.
Edit: Topaz Studio scheint auf den ersten Blick über die CPU zu laufen.
 

whyme

Cadet 3rd Year
Dabei seit
März 2017
Beiträge
49
Im vergleich zur 2080 TI hat sich der Durchsatz also nicht geändert, abgesehen von sparsity, was die ti nicht kann und ein bis zu 2x ist und nicht allgemein 2x bedeutet.

Und ob man mit weniger, aber dafür breiteren Einheiten wirklich flexibler ist, muss sich denke ich auch zeigen.
 

Robert

Redakteur
Ersteller dieses Themas
Teammitglied
Dabei seit
Feb. 2009
Beiträge
1.443
@Colindo Die Anzahl der Rechenoperationen pro Tensor-Kern ist doppelt so hoch, die Anzahl der Rechenoperationen pro SM gleich (halb so viele Tensor-Kerne, die doppelt so schnell arbeiten) und die Rechenleistung aller Tensor-Kerne (aka der Grafikkarte) 2,7 mal so hoch.

@Xes Sie können a.) von Entwicklern genutzt werden und b.) von Anwendern in fertiger Software (zum Beispiel DLSS, die Nvidia AI-Rauschentfernung, aber auch Drittanbietersoftware).
 
Zuletzt bearbeitet:

xxhagixx

Cadet 4th Year
Dabei seit
Dez. 2011
Beiträge
121
Wenn jetzt noch Tensorflow cudNN 8 unterstützen würde, wäre das ja schon mal eine coole Sache.
Mehr Speed beim trainieren kann nie Schaden, auch wenn es dann später sowieso bei Sagemaker landet:heilig:
 

Saint81

Ensign
Dabei seit
Feb. 2017
Beiträge
247
Vor einem halben Jahr habe ich alles auf Google Collab Notebooks umgestellt, da mein Gaming-Rechner die 4h marke pro 200er Epoch Training run gebraucht hat und somit kein startendes Flugzeug mehr unter meinem Schreibtisch stand.

Anschaffungspreis + Stromkosten Lokal -vs- Cloud GPU mietkosten war vorher einfach deutlich zugunsten Cloud.

Wenn ich allerdings jetzt sehe, das die A100er Ampere über $1000 pro Monat kosten und die Anschaffung einer 3080 billiger ist, bin ich echt wieder am überlegen. 312 TFLOPs im Vergleich zu 125 TFLOPs einer V100 sind halt schon ne Ansage.
 

VYPA

Lt. Commander
Dabei seit
Sep. 2004
Beiträge
1.828
Das ist in meinen Augen ein Schlag ins Gesicht für den Autor dieses Artikels.
Musste kurz drüber nachdenken, ob das jetzt an dem Artikel liegt oder an mir.
Als Audio Format könnte ich damit gerade mehr anfangen, da ich mich nicht voll drauf konzentrieren kann - gilt sonst natürlich eher für längere Artikel. Das ist ja auch ein Grund warum Podcasts und/oder YouTube Channels so erfolgreich sind. Zumal viele Leute auditive/visuelle Lerntypen sind und dementsprechend gerne über diese Medien konsumieren, ob nun informativ oder "nur" zur Unterhaltung.
 

wern001

Commander
Dabei seit
Mai 2017
Beiträge
2.538
Top