News Hot Chips: Riesige Chips von IBM & Intel und ein Monster von Cerebras

Volker

Ost 1
Teammitglied
Dabei seit
Juni 2001
Beiträge
15.054

iNFECTED_pHILZ

Commander
Dabei seit
Dez. 2008
Beiträge
2.657
Beeindruckend.

Die technischen Werte lesen sich ja erst mal ganz gut, was dabei aber auf der Straße ankommt muss sich zeigen. Kann mir aber vorstellen, dass die hohe Integration vom Speicher und den architektischen Konzept sowas alles bisherige in Grund und Boden stampft (absolute Leistung sowie relativ zum Verbrauch)

Auf jedenfall spannend zu sehen dass bei sowas richtig Gas gegeben wird. In 10 Jahren gibt's dann vergleichbare KI Leistung im Smartphone.
 

Wattwanderer

Commodore
Dabei seit
Juni 2005
Beiträge
4.152
Größter Chip?

Stammt der nicht von Robotron? :)

Da kommt Nostalgie hoch als Japan Speerspitze der technischen Entwicklung darstellte.

Eine japanische Delegation wird nach Besuch der DDR nach ihren Eindrücken gefragt. Als höfliche Asiaten antworten sie "die Museen haben uns beeindruckt. Pergamon, Bode, Robotron..."

BTT:

Wie geht man bei so einem riesigen Chip mit Fehlern um? Ein Eckchen kaputt und die ganze CPU ist Ausschuss?
Schafft man es denn überhaupt über die ganze Scheibe fehlerfrei zu sein?
 

iNFECTED_pHILZ

Commander
Dabei seit
Dez. 2008
Beiträge
2.657
Ohne Teildeaktivierung wird es wohl ewig dauern, bis man einen vollständig intaktem Chip bei der Größe erhält.
Man kann davon ausgehen, dass es immer eine gewissen Grad an Teildeaktivierung gibt.
So ein Chip in der Auflösung zu fertigen bedeutet quasi automatisch, dass nicht alle Transistoren perfekt angebunden sind. Ich werd jetzt mal eine maximale Belichtungsqualität von 99, 7% ( oder jeden anderen fiktiven Wert einsetzen) in den Raum. Die 0,3% werden demnach immer defekt sein.

Solange es jedoch kein kritischer Pfad ist kann der Chip ja benutzt werden. Aber eine Teildeaktivierung wird immer stattfinden und kann mit Redundanz von Bereichen vorgebeugt werden
 

TierParkToni

Cadet 3rd Year
Dabei seit
Mai 2018
Beiträge
49
Vermutlich sind die vorhandenen Defekte Teil der Lernphase von der darauf laufenden KI - nichts anderes macht man ja heute bereits mit Festplatten SSDs etc. ....
Aber Ur-gewaltig ist so ein Die in jeden Fall - die entstehende Verlustwärme im Betrieb kann vermutlich bei der Fläche ein Haus heizen :D..

Edit: Rechtschreibfehler
 

Cool Master

Fleet Admiral
Dabei seit
Dez. 2005
Beiträge
28.184
Vermutlich sind die vorhandenen Defekte Teil der Lernphase von der darauf laufenden KI - nichts anderes macht man ja heute bereits mit Festplatten SSDs etc. ....
Bei HDDs und SSDs hast du in der Regel mehr Kapazität als angegeben damit du gewisse reserve Sektoren hast ;) Bei CPUs ist ist es eher der Fall, da wird die CPU dann aber in einer anderen Kategorie verkauft.
 

Makso

Lt. Commander
Dabei seit
Okt. 2006
Beiträge
1.852

Summerbreeze

Lt. Junior Grade
Dabei seit
Mai 2019
Beiträge
388
Man kann davon ausgehen, dass es immer eine gewissen Grad an Teildeaktivierung gibt.
So ein Chip in der Auflösung zu fertigen bedeutet quasi automatisch, dass nicht alle Transistoren perfekt angebunden sind. Ich werd jetzt mal eine maximale Belichtungsqualität von 99, 7% ( oder jeden anderen fiktiven Wert einsetzen) in den Raum. Die 0,3% werden demnach immer defekt sein.

Solange es jedoch kein kritischer Pfad ist kann der Chip ja benutzt werden. Aber eine Teildeaktivierung wird immer stattfinden und kann mit Redundanz von Bereichen vorgebeugt werden
Wenn ich da jetzt keinen Tippfehler gemacht habe, dann sind das nach deiner Fehlerquote 36.000.000.000 Defekte Transistoren. Unglaublich
Das können die nicht bringen.
Wie hoch ist denn üblicherweise die Fehlerquote? Ich hätte jetzt mal auf Vielleicht 0,001% geschätzt. Was ja eigentlich auch noch viel ist.
 

Fliz

Lt. Commander
Dabei seit
Juli 2015
Beiträge
1.868
Der große Chip erinnert mich an die Platten, die die computeraffinen Alienspezies im Film Valerian verbauen.. :-)
 

iNFECTED_pHILZ

Commander
Dabei seit
Dez. 2008
Beiträge
2.657
Wenn ich da jetzt keinen Tippfehler gemacht habe, dann sind das nach deiner Fehlerquote 36.000.000.000 Defekte Transistoren. Unglaublich
Das können die nicht bringen.
Wie hoch ist denn üblicherweise die Fehlerquote? Ich hätte jetzt mal auf Vielleicht 0,001% geschätzt. Was ja eigentlich auch noch viel ist.
Deswegen schrieb ich ja dass der Wert aus der Luft gegriffen wurde.

Wahrscheinlich wirds schon so 99,99x Prozent sein.. Aber ich weiß es halt nicht.
 

Klassikfan

Commodore
Dabei seit
Aug. 2009
Beiträge
4.099
Irgendwie hab ich da gerade olle Erich Honecker im Hinterkopf, der sagte in einem ITler-Witz aus DDR-Zeiten:

"Die Mikroelektronik der Deutschen Demokratischen Republik ist nicht kleinzukriegen!" :D
 

andi_sco

Commander
Dabei seit
Jan. 2018
Beiträge
2.764
Naja, die DDR war leider auf einem ganz anderen Level festgebunden.
Der 1 MBIT Chip, den die Honecker gezeigt hatten war ja auch kein echter oder ein defekter (Schade das man keine bei ebay findet :D ).
 

lokon

Lt. Junior Grade
Dabei seit
Aug. 2013
Beiträge
349
Solange es jedoch kein kritischer Pfad ist kann der Chip ja benutzt werden. Aber eine Teildeaktivierung wird immer stattfinden und kann mit Redundanz von Bereichen vorgebeugt werden
Wie hoch ist denn üblicherweise die Fehlerquote?
Mit Hilfe von Wikipedia: Ausbeute und etwas Text aus dem News stellt sich das Problem eigentlich nicht so schlimm dar.

400.000 spezielle AI-Cores und satte 18 GByte an SRAM [...] über ein Mesh-Interconnect
Das sind also 400.000 Blöcke mit lokalem oder globalen SRAM die in der Mesh Topologie verbunden sind - ähnlich Skylake SP . 400.000 einfachere CPU Cores im Vergleich zu komplizierteren Prozessor-Cores.
Weitere sinnvolle Annahmen : die Interconnects sind weniger anfällig für Fehler als die AI-Cores. Die Mesh Konfiguration erfolgt nach dem Hardwaretest vermutlich durch FUSE-Bits oder durch Laser-Trennung von Leiterbahnen (histor. Beispiel) .
Außerdem wird von 16nm Fertigung geschrieben = bewährte Technik - und die Interconnects zB größer als auf dem Ryzen IO-Die.
Der Mesh zwischen den Cores kann ja so verdrahtet sein, dass defekte Cores nur "wenig mehr" funktionierende Cores lahmlegen.
 

iNFECTED_pHILZ

Commander
Dabei seit
Dez. 2008
Beiträge
2.657

Summerbreeze

Lt. Junior Grade
Dabei seit
Mai 2019
Beiträge
388
Außerdem wird von 16nm Fertigung geschrieben
Jepp.
Das geht ja heutzutage fast schon als Grobmotorik durch :D

Wenn ich da 8,6 Kerne per mm² habe, ist das für den Laien eine ganze Menge. Ich denke auch, die werden das sicher im Design eingebaut haben, das bis zu einer bestimmten Fehlermenge bzw Quote einfach Einheiten deaktiviert werden und gut ist.
 
Top