Bericht Nvidia Ampere: A100 ist für KI eine 20 Mal schnellere GPU

usb2_2 schrieb:
So groß auf 7nm hätte ich nicht erwartet. Ob CDNA3 das dann aufholt?
Ja und Nein.

Wichtig ist in dem Fall, dass die 312 TFLOPs bei der Berechnung über die Tensor-Cores erreicht werden, jetzt ist der TC aber ein MAD-Einheit, kann also nur a + (b x c) ausführen. Die "Schaltung" ist simple und kann dadurch sehr schnell ausgeführt werden.

Die FP16-Leistung über die ALUs dürfte sich eher bei 39 TFLOP/s bewegen und um diese 39 TFLOP/s aufzuholen, wird für AMD nicht schwer werden, da müssen sie einfach nur die CUs in CDNA erhöhen.

Anders sieht es eben mit der Leistung der besagten Tensore-Cores aus, hier wird AMD früher oder später auch entsprechend "einfache" Schaltungen in ihre Grafikkarte einbauen müssen, wenn sie da mit halten wollen. Denn die Effiezient als auch die Leistung ziehen die TCs gerade daraus, dass sie nur "eine" Funktion bieten.
 
  • Gefällt mir
Reaktionen: yummycandy, derSafran, adAstra und 4 andere
@nlr
199.000 US-Dollar vor Steuern ruft Nvidia für das DGX A100 auf und erklärt, dass Datacenter-Betreiber mehr Geld sparen könnten, umso ?mehr? Systeme sie erwerben.

Mellanox stellt über das ConnectX-6 DX zweimal 200 Gbit/s über Ethernet oder InfiniBand zur Verfügung.

Die Dual Port ConnectX-6 DX Karten sind nur mit maximal 2x 100 Gbit/s spezifiziert. Das entspricht auch dem Bild im Artikel. Es gibt allerdings auch Single Port 200 Gbit/s Karten.

Könnte der 6. HBM Stack für eine ECC Funktion notwendig sein?
 
Feine Dinger muss ich sagen. Für Ihren einsatzbereich Weltklasse! Das haut einen echt von den Socken und Zeigt was möglich ist!

Ich schiele weiterhin auf Workstationkarten und evtl kommende gaming Karten Ende des Jahres (vielleicht). Aber auch das hier zeigt dass so einiges drin ist. 400 Watt TDP sind hier ausnahmsweise mal irrelevant. Die Stärken dieser Karte definieren ihren Einsatz. Allerdings sollten sie die cuda Berechnung bei weiteren Produkten nicht vernachlässigen. AMD wird kommen. Und besonders im Bereich Open CL ist AMD jetzt schon dicht dran und da ist Die Arcturus Architektur noch nichtmal draußen.

Klar ein ganz anderer einsatzbereich aber man muss immer an allen Ecken schauen wo der Konkurrent lauert :D
 
  • Gefällt mir
Reaktionen: PPPP
5376 Cores für eine Desktop Variante mit 384 Bit GDDR6 würde Sinn machen, wobei eine TITAN da schon darüber liegen dürfte. Eine 3080 TI ist sicher teilaktiv.
 
Wenn die neue Generation der Spielegrafikkarten nur einen Bruchteil dieser Leistungssteigerung der hier relevanten Bereiche abbekommt, dann wird das ein AI/DLSS/Raytracing- Beschleunigungsfeuerwerk.

Dann könnte man ein DLSS3.0 auf "uber" Quality laufen lassen und tatsächlich das Bild der nativen Auflösung in allen Belangen hinter sich lassen, gleichzeitig noch das Denoising auf den Tensor- Cores durchführen und der jeweilige Zeitanteil dafür pro Frame sinkt zusätzlich noch einmal deutlich.

Träfe dies zu, stünde einer Vervierfachung der Raytracing- Leistung wohl tatsächlich nichts mehr im Wege.
Fully pathtraced Minecraft mit 160FPS (oder wahlweise höherer Chunksichtweite).

Somit stünden AAA Titeln mit primären Pathtracer Tür und Tor offen.

Mal sehen, was sich von den Daten auf die Spielegrafikkarten rüberretten lässt, bzw. was nvidia zulassen will :)
Hätte, könnte, stünde....

LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: JohnnyTexas, CrustiCroc, PPPP und 5 andere
Takt enttäuscht aber bei dem Verbrauch war halt nicht mehr drin. Kein EUV enttäuscht noch mehr.
 
.... oh was werden die Gamer bluten müssen.... ;). Die industrie setzt das einfach ab aber endkunde. Ich erwarte "saftige" preise ;)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Trefoil80
Das "TF32" klingt aber echt nach Beschiss weil der Name mehr genauigkeit suggeriert als überhaupt vorhanden ist. Weil es mit 10Bit Mantisse nicht mal annähernd an FP32 rankommt mit 23Bit Mantisse, das sind Größenordnungen an Unterschied.
VZ+8+10 -> nennt es doch TF20 oder so... (auch wenns nur 19Bit sind)

Aber so klingt das wie 4GB RAM bei der 970.
 
  • Gefällt mir
Reaktionen: Redirion, Porty47, yummycandy und 4 andere
Krautmaster schrieb:
hm letztes mal kam glaub der Desktop Pendant wenige Wochen / Monate nach der HPC Variante.
"Letztes Mal" war GV100 und da war die Vorstellung im Mai 2017. Wann Turing kam wissen wir alle. ;)

Zumal niemand weiß, ob Ampere nicht nur HPC-only ist und sie noch mal eher Richtung Evolution gehen wie von Volta zu Turing. Ersteres gab's auch nicht für den Desktop (im eigentlichen Sinne, Titan V mal abgesehen).
 
Sehr schön, denn von schnelleren KI´s profitieren wir am Ende alle!
20 x schneller ist schon eine krasse Ansage, bin gespannt welche Durchbrüche wir in den kommenden 2 Jahren damit erreichen werden.
 
Mustis schrieb:
Na sowas, wie unerwartet ist Ampere kein Gaming Kärtchen und somit immer noch kein Turing Nachfogler in Sicht.

Nvidia hat doch selbst bestätigt, dass es keine Trennung mehr zwischen den Architekturen gibt und Ampere sowohl im HPC Bereich, als auch in anderen bereichen eingesetzt wird.

Mustis schrieb:
Mit Sicherheit nicht.

Wo nimmst du diese Sicherheit her? Weißt du da mehr als wir ;) Bislang gibt es dazu keine offiziellen Aussagen.

Mustis schrieb:
Das wird doch immer deutlicher! Nvidia hat den kurzfristigen Fokus ganz klar auf den Volta Nachfolger Ampere gerichtet und dieser ist ohne deutliche Anpassungen nicht als Desktop-Grafikkarte nutzbar.

Wie gesagt, Ampere soll Volta und Turing gleichzeitig ablösen. Das hat Nvidia so gesagt. Natürlich wird eine Desktopkarte anders konfiguriert sein. Aber auch das ist nichts neues, denn den A100 Chip werden wir wohl auch nicht als Gamingkarte sehen.

Aber das ist auch nichts neues, denn Turing und Volta sind auch stark verwand. Die Turinshader bauen auf den Voltashadern auf.

Mustis schrieb:
Und selbst wenn, die dort nötige ALUs aka CUDA Leistung steigt bei Ampere kaum an, 24% wie man hier sieht. Man muss also sogar offen, dass die Gaming Ampere sich deutlich unterscheidet von der Datacenter Ampere, sonst wird der Leistungssprung sehr übersichtlich.

Also über die Gamingleistung kann ich hier nichts lesen. Auch nichts über die tatsächliche Leistung der Cudacores. Ich sehe da nur den Wert der theoretischen Rechenleistung. Ergibt sich halt aus Recheneinhiten und dem Takt.


Mit unterschiedlichem Takt können da sehr verschiedene Ergebnisse bei rauskommen. Dei Desktop Karten takten durch die Bank deutlich flotter, als die HPC Ableger. Der Takt dürfte an der stelle der Effizienz geschuldet sein.

Ein Gaming Ableger mit sagen wir beispielsweise 80SM und einem Takt von 2Ghz kommt beispielsweise auf 20,5 Tflops FP32

Mustis schrieb:
Auch fehlen wohl RTX Kerne und ich bezweifele, dass Nvidia die bereits wieder aufgibt nach einer Generation.

Es gibt auch Turing ohne RT Cores. Kannst du dir dann als GTX1600 Karte kaufen ;) Das der HPC Ableger keine RTX Cores hat ist kein Hinweis auf die Gamingkarten.

Mustis schrieb:
Für mich wird immer unwahrscheinlicher, dass ein 2080 TI Nachfolger noch dieses Jahr kommt.

Ich habe bis jetzt nichts gesehen, was dafür noch dagegen spricht...
 
  • Gefällt mir
Reaktionen: xBitwinSDKx, SteeL1942, Acedia23 und 11 andere
@ZeroZerp
Die reine FP32 Leistung steigt nur relativ minimal und das beim Vollausbau. Also welche Leistungssteigerung siehst du? Also sofern man nicht über DLSS in deutlich geringer Auflösung zocken will (mich at auch das DLSS 2.0 noch nicht soweit überzeugt, dass ich auf native Auflösung verzichten will, da es noch immer unschärfer ist) habe ich zwar ggf. gestiegen RTX Leistung, aber im Kern eine fast schon stagnierende Leistung.

Shoryuken94 schrieb:
Ein Gaming Ableger mit sagen wir beispielsweise 80SM und einem Takt von 2Ghz kommt beispielsweise auf 20,5 Tflops FP32
Ja dazu muss man die aber auch erstmal haben. die 2080 Ti taktet selbst im Bost 500 mhz weniger... die 1080 Ti taktete auch bei 1500 und un sollen 500mhz direkt mehr sein? Ja isn Shrink, halte ich für dennoch unwahrscheinlich zumal auch 1080 Ti auf 2080 Ti einen Shrink enthielt und die Taktraten dennoch weitgehend identisch waren.
 
Zuletzt bearbeitet von einem Moderator:
Mustis schrieb:
[...]Und selbst wenn, die dort nötige ALUs aka CUDA Leistung steigt bei Ampere kaum an, 24% wie man hier sieht.[...]

Ist das nicht erst mal 'nur' die reine Anzahl der CUDA Cores?

~24% mehr Cores könnten bei 7nm und gleichzeitig höherem Takt auch zu über 30% mehr Leistung führen. Oder NVidia belässt es bei einem Leistungsplus von ~24% und senkt den Verbrauch.

Ist mMn alles noch sehr spekulativ.
 
  • Gefällt mir
Reaktionen: PPPP
olligo schrieb:
Sehr schön, denn von schnelleren KI´s profitieren wir am Ende alle!
Ja........ der letzte Schritt zur totalen Überwachung ist fast vollendet:king:
Zumindest wird gerade der Weg geebnet.
 
  • Gefällt mir
Reaktionen: Onkel Föhn, Dimensionday und olligo
Die wichtigste bisher unbeantwortete Frage ist aber, does it run Crysis ????
 
  • Gefällt mir
Reaktionen: bretho, shirkai, tochan01 und eine weitere Person
Doppelte Leistung bei gleichem Stromverbrauch scheint für Consumerkarten realistisch.
 
Beeindruckend...glaube ich mal....bin Privat Zocker, wollte eigentlich sehen ob ich meine RTX 2080 ablösen kann. Naja 2021 vlt?? :D
 
uncrypted schrieb:
Die wichtigste bisher unbeantwortete Frage ist aber, does it run Crysis ????
Bei Karten mit Video-Ausgang, ja
 
  • Gefällt mir
Reaktionen: PPPP und Onkel Föhn
v_ossi schrieb:
Ist mMn alles noch sehr spekulativ.
Natürlich ist es das. Aber wir haben noch nichtmal ne Ankündigung der neuen Karten, keinerlei offizielles Ankündigung irgendwas und trotzdem sehen noch immer soviele einen Release im 2 Halbjahr, am besten noch Q3...

Simanova schrieb:
Doppelte Leistung bei gleichem Stromverbrauch scheint für Consumerkarten realistisch.
Klar, gabs ja schon so oft in der Geschichte der GRafikkarten...
Shoryuken94 schrieb:
Ich habe bis jetzt nichts gesehen, was dafür noch dagegen spricht...
Der Hauptgrund ist, dass man eben genau gar nichts seitens Nvidia bisher dazu gesagt hat. Wird langsam bisschen knapp, wenn man bedenkt, wieviel Zeit sonst so vergeht zwischen erster offizieller Ankündigung und Marktstart...
 
Zurück
Oben