News Ampere: Nvidia rüstet A100 mit 80 GB HBM2e aus

nlr

Redakteur
Teammitglied
Registriert
Sep. 2005
Beiträge
9.982
Nvidia bietet die „A100 Tensor Core GPU“ auf Basis der Ampere-Architektur fortan mit 80 statt 40 GB Speicher an. Der Wechsel von HBM2 zu HBM2e erlaubt es Nvidia, auf dem gleichen SXM4-Modul nun doppelt so viel Speicher wie im Frühjahr zu verbauen. Von mehr Speicher profitieren beim KI-Training vor allem besonders große Modelle.

Zur News: Ampere: Nvidia rüstet A100 mit 80 GB HBM2e aus
 
  • Gefällt mir
Reaktionen: aid0nex, Smartbomb, Digibyte und 3 andere
Ich weiß nicht wie es die anderen sehen, aber ich finde es Wahnsinn was Nvidia in den letzten Jahren für Sprünge gemacht hat. Sicher ging das auch zum Leidwesen direkter Konkurrenten, aber dennoch ist der Laden von Jensen zur Zeit unaufhaltbar. Und man darf nicht vergessen, dass Nvidia den Resellern einen ganz enormen Aufschwung bereitet hat, und auch noch immer bereitet... Corona hin oder her
 
  • Gefällt mir
Reaktionen: aid0nex, PHuV, ComputerJunge und 4 andere
Da bin ich mal gespannt was man aus den HBMs in Zukunft noch rausholen kann. Die AMD Karten in der Vergangenheit waren leider eher dürftig.
 
  • Gefällt mir
Reaktionen: aid0nex
Ich denke mal die müssen AMDs Arcturus was entgegen stellen. Nicht das AMD noch besser oder sogar schneller wird.
 
  • Gefällt mir
Reaktionen: Mcr-King
Wenn sie doch nur beim Mainstream (Pöbel) NICHT nur so mit der Speicherbestückung geizen würden … :-(

MfG Föhn.
 
  • Gefällt mir
Reaktionen: aid0nex, Hatsune_Miku, PulsarS und 13 andere
Laut unserer Forums Community dürfte der speicher kaum für WQHD reichen :freak:
 
  • Gefällt mir
Reaktionen: ColonelP4nic, aid0nex, Disco Pongo und 35 andere
Und bei der 3080 knausern die mit 10 GiB rum. :(
 
  • Gefällt mir
Reaktionen: aid0nex, Pisaro, DaHans und 15 andere
Ein sehr beeindruckendes Stück Technik. Besonders im AI Bereich kann man die stärken richtig ausspielen.


Mal sehen ob irgendwann noch der 6. Stack dazu kommt und kein Dummy mehr gebraucht wird.

Sind die Gründe dafür dass der große Chip Teildeaktiviert ist? Da wäre für später, wenn die yields noch besser werden, noch ein wenig Platz
Ergänzung ()

Und wer sich wundert warum Nvidia hier nicht mit dem VRAM geizt?

Die Kunden in diesem Segment bezahlen ganz andere Preise. Für so eine Karte ist der fünfstellig ;)
 
  • Gefällt mir
Reaktionen: Lübke82
Jetzt bitte eine Tesla Variante Für Rechenzentren, die VDIs mit GPU Unterstützung anbieten.
Muss nicht performanter sind, sondern einfach nur die Speichererweiterung.
Das wäre ein echter ein Segen.
Doppelte Menge an VDIs für den selben einen GPU Slot :love:.
Die Karten wären instand leer gekauft.
 
Kandalfus schrieb:
Und bei der 3080 knausern die mit 10 GiB rum. :(
😂 Na klar so eine Lederjacke ist auch teuer der arme muss doch was verdienen. 😉
 
  • Gefällt mir
Reaktionen: aid0nex, dohderbert, masterkruk und 2 andere
But can it run Crysis?

Ja, ich weiß, der hat einen langen Bart. Aber einmal wollte ich auch der erste sein...

Gruß,
CTN
 
  • Gefällt mir
Reaktionen: tukse, Smartbomb, masterkruk und 4 andere
Geil wie NVIDIA die dummen Kunden mit 10GB abspeist, und bei Firmen einfach 80GB draufklatscht.
 
  • Gefällt mir
Reaktionen: Pisaro, Kodak, Onkel Föhn und 2 andere
  • Gefällt mir
Reaktionen: CrunchTheNumber und Mcr-King
Piak schrieb:
Geil wie NVIDIA die dummen Kunden mit 10GB abspeist, und bei Firmen einfach 80GB draufklatscht.
der Anwendungszweck ist nicht vergleichbar. Ein sinnloses Beispiel.
Und selbst für den von Dir gemeinten Zweck bietet nVidia Dir immerhin ein Produkt mit 24GB an.
 
  • Gefällt mir
Reaktionen: PHuV, Lübke82, Xtrasmart und 2 andere
Mcr-King schrieb:
😂 Na klar so eine Lederjacke ist auch teuer der arme muss doch was verdienen. 😉

Dem habe ich dieses Jahr bereits komplett eine neue Jacke gesponsert.
 
  • Gefällt mir
Reaktionen: Mcr-King, masterkruk und Plasma81
Was für ein Monsterchip!!
 
  • Gefällt mir
Reaktionen: fox40phil
Zurück
Oben