RayAlpha
Lieutenant
- Registriert
- Juni 2017
- Beiträge
- 619
Hallo,
ich habe vorhin folgenden Artikel gelesen:
Ampere A100 GPU: KI-Berechnungen 2.000 Prozent schneller
Zitat:
"Die A100 GPU soll 54 Milliarden Transistoren auf einer Fläche von nur 815 mm² beherbergen."
Warum vergrößert man, bei solch spezialisierten Anwendungen, nicht einfach die Chipfläche um mit mehr Transistoren arbeiten zu können? Beispielsweise 108 Milliarden Transistoren auf 1630mm2. Oder um es ganz krass zu machen 270 Milliarden Transistoren auf 4075mm2. Ich kenne mich damit absolut nicht aus aber bin mir sicher, dass es dafür einen Grund geben muss. Vielleicht weil die elektrischen Signale sonst einen zu weiten Weg haben? Aber wird das dann nicht durch die Anzahl der Transistoren wieder ausgeglichen? Und warum werden noch keine 3D Chips gebaut die (sollte der Signalweg das Problem sein) dieses Problem locker umgehen könnten?
ich habe vorhin folgenden Artikel gelesen:
Ampere A100 GPU: KI-Berechnungen 2.000 Prozent schneller
Zitat:
"Die A100 GPU soll 54 Milliarden Transistoren auf einer Fläche von nur 815 mm² beherbergen."
Warum vergrößert man, bei solch spezialisierten Anwendungen, nicht einfach die Chipfläche um mit mehr Transistoren arbeiten zu können? Beispielsweise 108 Milliarden Transistoren auf 1630mm2. Oder um es ganz krass zu machen 270 Milliarden Transistoren auf 4075mm2. Ich kenne mich damit absolut nicht aus aber bin mir sicher, dass es dafür einen Grund geben muss. Vielleicht weil die elektrischen Signale sonst einen zu weiten Weg haben? Aber wird das dann nicht durch die Anzahl der Transistoren wieder ausgeglichen? Und warum werden noch keine 3D Chips gebaut die (sollte der Signalweg das Problem sein) dieses Problem locker umgehen könnten?