News Forschung & Entwicklung: IBM zeigt 5-nm-Chip mit EUV und Gate all Around

Volker

Ost 1
Teammitglied
Registriert
Juni 2001
Beiträge
18.249
Die Kombination IBM, GF und Samsung klingt doch so potent dass man es gut mit Intel aufnehmen kann. Langsam geht dann die outsourcingstrategie von AMD/GF auf.
Im Gegensatz zu Foundries wie TSMC bezieht man anscheinend aber nicht nur fremde Chipaufträge, sondern man gibt sogar die Forschung in andere Hände. Zuerst lizensiert man bei Samsung und dann betraut man IBM mit der Grundlagenforschung für die nächste Generation an Fertigungsverfahren. Wenn sich Samsung und GF also gewissermaßen die Kosten der Forschung teilen könnte das eindeutige Kostenvorteile haben.
IBM wiederum hat keinen Klotz am Bein und muss sich nicht um Management und Auslastung der FABs kümmern.
 
davidzo schrieb:
Die Kombination IBM, GF und Samsung klingt doch so potent dass man es gut mit Intel aufnehmen kann.

Intel ist wohl nicht einmal in der Lage davon zu träumen in der Fertigung so weit zu sein wie IBM.
Sonst wären sie auch mal in High-End Systemen vertreten.

IBM kommt auch nicht nur bei irgendwelchen Supercomputern, oder synthetischen Großrechnern zum Einsatz, ich kann dir aus zuverlässiger Quelle (SAP) sagen, dass das weltweit größte SAP System auf IBM POWER läuft und aktuell durch eine größere IBM POWER Maschine abgelöst wird.
 
Ich frage mich ob das Militär (z.B. US Militär) schon diese Chips im Einsatz hat. Ich meine, das Militär hat schon Sachen im Einsatz, die bekommt man erst 10 Jahre später oder als Weltneuheit zu sehen.
 
Nein, hat das Militär nicht. Die sind genauso Kunde wie jeder andere bei IBM, Intel und co.
 
Das Militär wird noch irgendwo bei 95nm CPUs stecken.
schließlich geht es da auch um Robustheit und elektromagnetische Verträglichkeit.
jeh kleiner das Zeug wird, desto anfälliger ist es auch.
 
textract schrieb:
Intel ist wohl nicht einmal in der Lage davon zu träumen in der Fertigung so weit zu sein wie IBM.

Erste Prozessoren auf Basis von IBMs 14nm FinFet SOI Prozess (Power9 @ GF, ex IBM) kommen im besten Fall ein halbes Jahr vor Intels ersten 10nm FinFet CPUs (Cannon Lake) auf den Markt. Bezogen auf 14nm liegt der Rückstand auf der Zeitachse bei drei Jahren.

Samsungs 14nm LPP liegt bei zwei Jahren und ist zwischen Intels 22nm und 14nm Prozess angesiedelt. Näher an letzteren aber von 14nm++ ein ganzes Stück weit weg. IBMs 14nm FinFet SOI dürfte vor allen für highend CPUs deutlich besser sein als Samsungs 14nm LPP. Nur ist man halt wieder sehr spät dran und das war auch schon bei Power8 ein Problem. Gegenüber Haswell sahs ganz gut aus (ebenfalls 22nm). Broadwell-EP war dann aber schon erheblich effizienter: http://www.anandtech.com/show/10539/assessing-ibms-power8-part-2-server-applications/10

Bis jetzt ist das bezogen auf reale Produkte vor allen viel heiße Luft. GF musste am Ende den eigenen 14nm FinFet Prozess streichen und bei Samsung 14nm LPP lizenzieren. 14nm FinFet SOI hat IBM noch selbst für eigene Fabs entwickelt (gehören inzwischen zu GF). Das muss in Zukunft besser werden aber darauf wetten würde ich vor allen bei GF nicht.
 
Zuletzt bearbeitet:
Intel scheint beim aktuellen Prozess viel Aufwand in die Optimierung auf Maximal Takt gesteckt zu haben, weniger die höchste Effizienz.

Samsungs 14 LPP scheint - sofern man Ryzen anschaut, bei etwa 2-3 Ghz sehr effizient zu sein. Typische Taktraten auch von Smartphone SOCs zwischenzeitlich.

In jede Richtung optimieren geht schlecht und Intel sagt selbst dass der ausgereifte 14nm Prozess noch besser geht als der erste 10nm.

Man sieht aber gut das Samsung und GF eine gute Fertigung haben. Ryzen steht nicht zuletzte deshalb auch besser da als zb die Phenoms die damals einfach mit dem Prozess zu kämpfen hatten. Auch bei Vega wirds interessant wenn das erste mal ein wirklich großer Chip aus der Fab purzeln muss.

TSMC hat was das angeht schon oft bewiesen dass 500mm² auch wirtschaftlich sind.
 
YforU schrieb:
Samsungs 14nm LPP liegt bei zwei Jahren und ist zwischen Intels 22nm und 14nm Prozess angesiedelt. Näher an letzteren aber von 14nm++ ein ganzes Stück weit weg. IBMs 14nm FinFet SOI dürfte vor allen für highend CPUs deutlich besser sein als Samsungs 14nm LPP. Nur ist man halt wieder sehr spät dran und das war auch schon bei Power8 ein Problem. Gegenüber Haswell sahs ganz gut aus (ebenfalls 22nm). Broadwell-EP war dann aber schon erheblich effizienter: http://www.anandtech.com/show/10539/assessing-ibms-power8-part-2-server-applications/10

Sobald anandtech relevante Tests macht, können wir nochmal darüber diskutieren.
Du kannst an POWER Hardware nicht so behandeln wie x86 Hardware, das versteht der Mainstream aber nicht.

Ich persönlich habe jedenfalls noch keine selbsternannte High-End MySQL Datenbank auf AIX gesehen.
 
IBMs Fertigung und Forschung haben erstmal nicht viel gemeinsam. Allerdings ist Big Blue immer noch Patentweltmeister und Forscht wie wild in allen möglichen Bereichen. Dürfte mittlerweile wohl die Haupteinnahmequelle von IBM sein. ;)

Für Samsung und GF ist diese Forschung allerdings Gold wert. Ich weiß zwar nicht wie teuer das insgesamt ist, sie werden aber dennoch ne Menge Geld sparen.
 
El_Chapo schrieb:
Ich frage mich ob das Militär (z.B. US Militär) schon diese Chips im Einsatz hat. Ich meine, das Militär hat schon Sachen im Einsatz, die bekommt man erst 10 Jahre später oder als Weltneuheit zu sehen.

Du scheinst das Militär mit Chuck Norris zu verwechseln:

Chuck Norris hat schon in den ´70ern seine 5-nm-Chips mit Gate all Around Tritt-Kombinationen aus 60 Zoll Wafern gestanzt.

:alien_alt:
 
El_Chapo schrieb:
Ich frage mich ob das Militär (z.B. US Militär) schon diese Chips im Einsatz hat. Ich meine, das Militär hat schon Sachen im Einsatz, die bekommt man erst 10 Jahre später oder als Weltneuheit zu sehen.
Das Militär?

Ganz sicher nicht!
Dem Militär geht es um Ausfallsicherheit vor Leistungsfähigkeit! Selbst unter widrigsten Bedingungen muss die Hardware laufen. Und 5 nm sind z.B. aus EMV-Sicht eine Katastrophe. Aus diesem Grund verbauen wir auch im Automotive-Bereich noch µC mit 65 nm Strukturbreite, weil bei Automotive Ausfallsicherheit an erster Stelle steht. Und beim Militär sowie bei der Raumfahrtindustrie ist es noch deutlich rigider. Da werden z.B. Temperaturen von 175 °C gefordert (bei Automotive "nur" 150 °C).
 
hmm die Technik haben war in der Vergangenheit nicht so das Problem aber dann auf den Markt bzw. Mann bringen - ehr schon :rolleyes:
 
In der Raumfahrt sind selbst 65nm teilweise zu viel. Der RAD750 (https://en.wikipedia.org/wiki/RAD750) hat z.B. eine Strukturbreite von 150nm oder mehr. Gut, der ist auch für den Einsatz in Sonden und Rovern gedacht - da dürfte die Strahlenbelastung noch ein gutes Stück höher ein als z.B. auf der ISS. Dennoch, je kleiner die Strukturgröße, desto einfacher ist es für die kosmische Strahlung ein paar Bits im Speicher zu flippen - mit potentiell katastrophalen Folgen.
 
Sind die 5nm, die echte Strukturbreite oder nur eine Marketingerfindung?
 
Helios_ocaholic schrieb:
Nein, hat das Militär nicht. Die sind genauso Kunde wie jeder andere bei IBM, Intel und co.

Ich glaube nicht das die Intel-Fertigung zertifiziert für das US-Militär/-Dienste ist. Die IBM Fabs waren es, und GloFo hat es geschafft den Status vorerst aufrecht zu erhalten.

Edit: Die nutzen zum Beispiel IBM/BAE RAD Prozessoren.

Edit2: Das Programm heißt "DoD Trusted Foundry" und Intel ist nicht auf der Liste zu finden.
 
Zuletzt bearbeitet:
@ Volker

Bei gleicher Leistungsaufnahme soll einerseits die Leistung um 40 Prozent ansteigen können, alternativ bei gleicher Leistung die Leistungsaufnahme um 75 Prozent reduziert werden.

Ich denke hier die meisten wissen was gemeint ist, aber es ließt sich etwas holprig. Leistung = Takt?/ Schaltvorgänge?
 
Zurück
Oben