Bericht Nvidia Ampere: Die GA100-GPU im Vollausbau analysiert

7hyrael schrieb:
Ich hoffe du behältst recht. 1800 ist die Schmerz-Oberkante die ich reserviert hab für nen 3080 Ti Custom Design
Dafür hat man sich, vor garnicht all zu langer Zeit, Highend Systeme inkl. bester Graka gebaut. Verrückte Entwicklung. Aber solange es genug gibt die solche Mondpreise bezahlen.
 
  • Gefällt mir
Reaktionen: msv, muzafferamg58, v_ossi und 7 andere
bettsi schrieb:
Dafür hat man sich, vor garnicht all zu langer Zeit, Highend Systeme inkl. bester Graka gebaut. Verrückte Entwicklung. Aber solange es genug gibt die solche Mondpreise bezahlen.
Och ich war lange vglw. genügsam mit GPUs. "nur" alle 3-4 Jahre upgegraded und dann nicht super Tief in die Tasche gegriffen (280->970 ->Vega56) und für die beiden letzteren jeweils keine 300 gezahlt.
Inzwischen dann halt Beruflich so verändert dass mir der Betrag eben nimmer weh tut. 1800 ist eher die Sanity Grenze wo ich mir dahinter sage ich komm mir dann auch zu sehr von Nvidia verarscht vor. Aber wenn man halt keine wirkliche Konkurrenz im oberen Highend hat (was ich AMD aber extrem wünsche, dass sie das wieder schaffen und Nvidia mal so hinter sich lassen wie Intel aktuell), kann man eben auch für die letzten paar Prozent solche Preise aufrufen.

Verglichen mit Highend in anderen Bereichen ist das Peanuts. Schau dir an was man für ein High-End Kopfhörer-Setup ausgibt. Da kaufst du dir nur für den Kopfhörer inzwischen 3 von den Karten... Wobei da natürlich auch ein gewisses Maß an Esoterik fast dabei ist.
 
  • Gefällt mir
Reaktionen: gartenriese
@syfsyn @Wadenbeisser

laut dem hier:

https://caly-technologies.com/die-yield-calculator/

mit folgenden parametern:

größe: 33x25mm (825mm²)

300mm wafer

defect density: 0,09 (zahlen von ende 2019)

kommen wir bei einem yield von 49% raus - 26 stück.

nehmen wir mal an ein 7nm wafer kostet jetzt noch $8000, dann kostet ein core ~$310. wenn wir annehmen, dass 20% vom ausschuss noch durch beschneiden brauchbar sind (weil 1/5 ja gecuttet wird), kommen noch 5 brauchbare teildefekte dazu, das macht dann ~$260 pro core.

wenn nvidia die wafer nicht noch ein gutes stück billiger bekommt, seh ich für unter 2000€ schwarz für den größten chip :evillol:

@7hyrael

big navi soll auch sehr stark werden. würde mich jetzt mal noch nicht festlegen.
 
@Wolfgang
Die Frage die schich mir aufwirft. Wird denn jeder Chip der überhaupt brauchbar ist genutz. Es dürte doch Chips geben wo noch mehr defekt ist. Warum schemeißt man diese Chips weg? Gerade in der Diskussion um Umweltschutz ist jeder gerettest Die Gold wert wenn man sieht wie viel Energi in so einen Chip gesteckt werden muss.

Könttet Ihr nicht mal einen Hintergrundartikel zu der verschwendung von Chips bringen?
 
  • Gefällt mir
Reaktionen: gartenriese
@duskstalker

Das ist ja alles schön und gut aber das sind am Ende eben nur Durchschnittswerte.
Des weiteren fehlt eine entscheidene Angabe, wieviele der guten Die sind voll funktionstücktig und wieviele Teildefekt? Die wurden schließlich nicht mit ausgewiesen und man kann wohl getrost davon ausgehen das die nicht Teil des Ausschusses sind denn das ist auch erheblich vom Chip Design abhängig.
Ach ja, davon gehen natürlich dann auch noch die Chips ab die die Spec des gewünschten Chips nicht schaffen und man kann auch getrost davon ausgehen das ein neues Produkt eine höhere Ausfallquote besitzt als ein eingefahrenes Produkt und schon zieht alles zusammen die reale Ausbeute ordentlich in den Keller.

Wen das Thema etwas interessiert könnte z.B. hier mal reinschauen:
https://de.wikipedia.org/wiki/Defekt_(Halbleitertechnik)

Am Ende ist ein solcher Rechner eben doch nur ein Schätzeisen auf Basis von Durchschnittswerten.
 
ampre schrieb:
Es dürte doch Chips geben wo noch mehr defekt ist. Warum schemeißt man diese Chips weg?

Man schmeißt sie weg weil zuviel defekt ist, du beantwortest die Frage doch im vorherigen Satz selbst, oder nicht?

Ob ein Chip solche Defekte aufweist, findest du natürlich erst nach dem Belichten heraus.
Was willst du dann mit so einem Chip anderes machen? Wenn essenzielle Teile des Chips nicht funktionsfähig sind, dann kannst du da beschneiden so viel du willst, du wirst nie etwas herausbekommen, was du benutzen kannst.
Von daher halte ich es nicht für "Verschwendung"
 
@Wadenbeisser Die Zahlen sind natürlich nur statistische Durchschnittswerte, aber bei genug Wafern wird sich das eben da einpendeln. Die Zahl der Chips, die der Rechner als "gut" bewertet, also die 60% von @sysfyn, sind defektfreie Chips. Von denen mit Defekt muss man dann nach eigenem Gutdünken einen Teil abziehen, die man durch den Cut rettet.

Die Defektdichte von 0,06 ist auch angemessen, da wie @duskstalker schreibt 0,09 Ende 2019 war.
Ergänzung ()

@ampre Gottseidank ist auch den produzierenden Firmen sehr daran gelegen, den Ausschuss so gering wie möglich zu halten. Aber letztlich ist es dann nur Alt-Silizium, das man mit Glück wieder einschmelzt und reinigt.
Bei diesen großen Chips sind die Verluste zwar hoch, aber bei den Mittelklasse-Chips mit hohen Stückzahlen sind auch die Defekte gering und schon wird weniger verschwendet.
 
Ist der 6te HBM Stack nicht einfach für den ECC gedacht, oder gibts sowas nicht bei solche chips?
 
@Colindo

Das ist aber ein grundlegenes Problem bei dem Thema.
Mit vielen kleinen Chips pro Wafer dürfte die Streuung erheblich kleiner ausfallen als bei wenigen großen Chips pro Wafer und Defekt ist auch nicht gleich Defekt. Je nach Lage und Chip Design kann er ihn nur beeinträchtigen oder zum Totalausfall führen. Genau sowas kann ein solcher Calculator eben nicht abbilden weshalb sich dessen Ergebnis mit zunehmender Chip Größe immer weiter von der Realität entfernen dürfte.
 
bettsi schrieb:
Dafür hat man sich, vor garnicht all zu langer Zeit, Highend Systeme inkl. bester Graka gebaut. Verrückte Entwicklung. Aber solange es genug gibt die solche Mondpreise bezahlen.

Ja, es gab auch Zeiten, da hat eine Tafel Schokolade 50 Pfennig gekostet und Ikea Möbel waren noch aus massivem Holz...huhu Inflation (von steigenden Lohnkosten in Fernost und gewinnmaximierender Ausrichtung der AGs mal ganz zu schweigen)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: hahaqp, gartenriese, Smartbomb und eine weitere Person
Wolfgang schrieb:
tl;dr: Nvidias A100 als erstes Produkt mit Ampere-Architektur ist für KI-Berechnungen im Datenzentrum gedacht. Die Basis ist die mit 826 mm² gigantisch große GA100-GPU. Was deren Vollausbau zu bieten hat, wie er im Vergleich zu Volta dasteht und was sich aus Ampere für GeForce ableiten lässt, klärt der Artikel – soweit es geht.

Zum Bericht: Nvidia Ampere: Die GA100-GPU im Vollausbau analysiert
@Wolfgang Mega guter Artikel. Ich bin ja oft genug mit Kritik zur Hand, aber diesmal 100% Lob :daumen:

GA102 wird auch spannend, aber vor September werden wir warscheinlich wenig handfestes erfahren.
 
Shoryuken94 schrieb:
Was wir aber jetzt dank der GA100 GPU wissen, Nvidia nutzt eine wesentlich höhere Packdichte.

Navi 1041 Mio Transistoren pro mm²
Xbox Series X SoC42.5 Mio Transistoren pro mm²
GA10065,6 Mio Transistoren pro mm²

Da halt die Frage wie dies zu Stande kommt und ob eine Konsumerkarte die gleiche Packdichte haben wird.

Lowpower Chips in N7 liegen bei ca. 85mio und AMD wird das sicher nicht zum Spaß eine so geringe Packdichte genommen haben.
 
domian schrieb:
Ja, es gab auch Zeiten, da hat eine Tafel Schokolade 50 Pfennig gekostet und Ikea Möbel waren noch aus massivem Holz...huhu Inflation (von steigenden Lohnkosten in Fernost und gewinnmaximierender Ausrichtung der AGs mal ganz zu schweigen)
Das war klar..... Versuch es dir nur schön zu reden. Also wenn alles einer Inflation von 100% innerhalb von 4-5 Jahren unterliegt..... Naja falscher Ort für das Thema.
 
  • Gefällt mir
Reaktionen: Smartbomb, HiT-Killer und russianinvasion
Grundgütiger schrieb:
Da halt die Frage wie dies zu Stande kommt und ob eine Konsumerkarte die gleiche Packdichte haben wird.
Ich meine Ampere hat viel viel mehr Cache zB L1 und L2, und dieser kann generell sehr dicht gepackt werden.
 
JaKno schrieb:
@Colindo
NVidia macht ja "nur" GPUs, während AMD wesentlich mehr Bereiche abdeckt. Die können sich nicht teilen.
Nvidia ist wie AMD auch im Konsolengeschäft tätig (Tegra-Chipsätze), haben eine Streaming Sparte mit
Hard und Software (Shield), durch den Zukauf von Mellanox sind sie auch im Netzwerkbereich tätig.
Außerdem ist Nvidia im KI und machine/deep learning Bereich viel stärker aufgestellt (Jetson, DGX...),
entwickelt die meiste Software selbst und baut Systeme für autonomes Fahren/Assistenz (Drive PX / AGX).

AMD entwickelt seit dem ATI Kauf und Verkauf ihrer Fabs fast ausschließlich CPU/GPU bzw APU.
Sie entwickeln abgesehn von ihren Treibern auch wenig Software selbst, sondern nutzt einiges an
Software/Plattformen/open source/offene Standards, die andere entwickelt haben und für die sie
wesentlich weniger Zeit und Geld investieren mussten. Das alles ist ja nichts schlechtes und es ist
wirtschaftlich gesehen auch ziemlich clever, aber daraus kann ich nur auf ein Ergebnis kommen:

AMD hat im Vergleich zu Nvidia (und Intel gleichermaßen) den wenigsten Aufwand mit R&D.
 
  • Gefällt mir
Reaktionen: Krautmaster, -WATC- und Affe007
@Wadenbeisser
@Colindo
@duskstalker

Die Yield Berechnung basiert auf den Ergebnissen nach dem Wafertest. Oder anders gesagt die Defektdichte, die angegeben wird bzw. zur Berchnung benutzt wird. Danach kommt das Assembly (also die Dies werden gebonded). Es gibt also noch ein Assembly Yield. Das wird vermutlich recht groß sein aber eben nicht 100%. Da geht also noch was verloren. Danach gibt es den "Functiontest" oder "Final Test" und da geht der Yield nochmal runter.... Ob z.B. ein PCIe IF wirklich funktioniert kann man beim Wafertest nicht feststellen.... weil z.B. das Package das timing beinflußt. Und dann muss man noch über den ganzen Temperaturbereich gehen ich bin mir nicht sicher aber ich meine erst in Final Test geht man über den gesamten Temperaturbereich ... macht ja auch Sinn irgendwie.
 
  • Gefällt mir
Reaktionen: Colindo
Ja dann wissen wie jetzt wenigsten, das wir bezüglich Ampere RTX 30XX[X], was die Grafikkarten für Gamer angeht, was Leistung und großen Änderungen gegenüber Turing betrifft, gar nichts wissen. Toll!

Von daher ist der Artikel für manche vielleicht interessant, aber für Gamer ohne wirkliche Aussagekraft. Was im Umkehrschluss bedeutet, dass noch mehr spekuliert wird als zuvor! Das einzige was wirklich sicher scheint, ist der GDDR6 Speicher, da kann man nur hoffen, das Nvidia ab der RTX 3070 nach oben nicht wieder mit 8GB geizt!
 
Zuletzt bearbeitet:
@HAL8999 SP3

Nix für ungut aber bei den Dies wird ganz sicher nichts gebondet. (Anschlußdrähte an den Chiprändern)
Der bekommt auf der Chip Oberfläche kleine Löt Kügelchen mit denen er danach mit dem Package (Chip Gehäuse) verlötet wird und dieser BGA wird am Ende auf die Grafikkarte gelötet.
Da das Package entsprechend komplex und teuer sein muss glaube ich kaum das alles aufgebaut und erst am Ende getestet wird ob der Chip funktioniert oder als ganzes in die Tonne gekloppt werden kann. Da wird mit Sicherheit schon vorher geschaut was prinzipiell funktionstüchtig ist, ganz einfach um sich zumindest die Folgekosten zu sparen.
Natürlich werden beim Zerteilen des Wafers und verfrachten des Chips auch noch Verlußte entstehen und auch beim Endtest der eine oder andere Chip ausfallen, die gesammten Kosten + das was der Hersteller daran verdienen will kommt dann noch oben drauf bevor der Endpreis dabei rauskommt.

Zudem sind die zuvor geschriebenen 8000$ pro Wafer eher Wunschtraum sein denn gehe ich nach der Tabelle in dem Posting können wir wohl eher von 10000$ und mehr ausgehen.
https://www.computerbase.de/forum/t...t-weniger-wafern.1918659/page-3#post-23621263

Gehen wir also mal von ca. 10k$ pro Wafer und am Ende vielleicht 25 funktionstüchtigen GPUs aus dann wären wir bereits bei 400$ pro GPU....ohne Package, Gewinnspanne und Co. natürlich.
Im besagten Fall fehlen dann aber noch der Interposer und die HBM2 Stacks und schon dürften wir beim Endpreis recht schnell im 4 stelligen Bereich landen.
 
Die Ampere Gaming-Chips werden oft deutlich kleiner sein als die professionellen Chips, bis auf den Nachfolger der 2080ti. Aber der wird auch wieder in so kleiner Stückzahl verkauft werden, dass er in der Steam-Statistik völlig untergeht.

Für die Masse relevant wird der Nachfolger der 2060 und der GPUs darunter.
Und wirklich entscheidend für Nvidia werden wieder Notebookchips werden.
Denn hier macht Nvidia in der Geforce-Sparte am meisten Umsatz, wie in dieser Gen auch wieder mit Turing.
 
Zurück
Oben