Bericht Intel: Einblicke in das Data Center Santa Clara

Volker

Ost 1
Teammitglied
Dabei seit
Juni 2001
Beiträge
14.326
#1
Zum Start der neuen Xeon-Familie alias Broadwell-EP hat ComputerBase Intels Hauptsitz im kalifornischen Santa Clara besucht. An das Gebäude angeschlossen ist eines von 60 Data Centern, die Intel unter anderem für neue Chip-Designs betreibt.

Zum Bericht: Intel: Einblicke in das Data Center Santa Clara
 
Dabei seit
Nov. 2008
Beiträge
9.405
#2
Schon beeindruckend, was Intel da an Rechenleistung hat. Ich frage mich, was die dort berechnen um solch ein Rechenzentrum auszulasten. Klar rechnen die Chip-Design aber ist das so aufwendig und was müssen die Leute auf dem Kasten haben, die eine Software dafür schreiben.
 

Mickey Cohen

Lt. Commander
Dabei seit
Mai 2015
Beiträge
1.153
#3
naja ich kann dir mit meinen bescheidwnen kenntnissen azsm c-praktikum auch ein programm schreiben, das das dung für die nächsten jahrtausende auslastet, irgendwas mit primzahlen geht immer xS
 
Dabei seit
Aug. 2006
Beiträge
4.784
#4
die eigentliche Software stammt von Firmen wie Cadence (die haben Mentor aufgekauft), Synopsys & Co.
Da reden wir auch über Kosten im Millionen Bereich nur für die Lizenzen (pro Jahr!).

die meiste Rechenleistung wird für die sogenannten "Regression Runs" gebraucht. Dabei wird eine Schaltung mit "zufälligen" Eingangsdaten simuliert und das simulierte Ergebnis mit dem erwarteten verglichen. Das ganze kann man quasi beliebig lange/oft laufen lassen und je mehr man das macht, desto sicherer kann man sein, dass die Schaltung das tut was man will.

Verwaltet wird das von einer Load-Balancing" Software (oft . Der Ingenieur schaufelt seine Jobs in die Netbatch queue und das System verteilt das dann auf die Maschinen.

Alle "normalen" Server müssen über das gesamte Jahr (365 Tage, 24 Stunden am Tag) mit >90% ausgelastet sein, sonst werden keine neuen bewilligt...
 

Candy_Cloud

Rear Admiral
Dabei seit
März 2015
Beiträge
5.203
#5
Simulationen sind sehr wichtig bei der Entwicklung derart komplexer Chips wie Intel sie herstellt. Nicht nur ihre Funktion muss klar sein sondern auch die physikalischen Eigenschaften werden meist simuliert bevor man mit echten, teuren Chips Versuche macht.

So lassen sich viele Probleme bereits erkennen bevor man viel Geld aufwendet um das Produkt erstmals zu fertigen. DA ist so ein Rechenzentrum fast ein Schnäppchen dagegen.

Man bedenke das z.B. für einen Chip die ganzen Litho-Masken hergestellt werden müssen und unter Umständen Teile von Prozessen überprüft und geändert werden sollten. Das kostet richtig dick Geld.

Habe solche Simulationen schon für Automotive Chips gesehen während meiner Ausbildung in Halbleiterei. Ziemlich interessant, vor allem weil man einige der Probleme in der Simulation echt nie gesehen hätte.
 
Dabei seit
Sep. 2014
Beiträge
3.360
#7
Ich frage mich, was die dort berechnen um solch ein Rechenzentrum auszulasten.
Angesichts der Tatsache, dass bald der Zen vor der Tür steht, muss Intel wieder Geschäftspraktiken (so z.B. wie damals zu A64-Zeiten) evaluieren, um den Mittbewerber zu schädigen, ohne zu schnell mit den Gesetzen in Konflikt zu geraten. Das bedarf schon Einiges an Rechenleistung...:D
Ab und an wird das Datacenter auch an Nvidia vermietet.:freak:

naja ich kann dir mit meinen bescheidwnen kenntnissen azsm c-praktikum auch ein programm schreiben, das das dung für die nächsten jahrtausende auslastet, irgendwas mit primzahlen geht immer xS
Oder Pi... :evillol:

Die Racks mit den Computern sind an einem Rechenzentrum eigentlich das Uninteressanteste, interessant ist da die ganze Peripherie wie Stromversorgung / USV, Feuerlöschanlage, Kühlung, Datensicherung usw., war auch mal in einem (kleinerem, mit Worten aus der News ausgedrückt: "0,5-Megawatt-Klasse") Rechenzentrum drin (Privatführung über Kontakte vom Bekannten).

Edit:
Insbesonders, wenn man mal auf das Typenschild schaut. 208 V (zwischen Phasen, 120 V gegen Erde) Ami-Drehstrom ist lächerlich im Gegensatz zu dem, was bei uns aus der "roten Steckdose" kommt (400 V zwischen Phasen, 230 V gegen Erde).
 
Zuletzt bearbeitet:

xexex

Rear Admiral
Dabei seit
Jan. 2010
Beiträge
5.221
#8
DAS nenne ich aufgeräumt. Wenn ich mir so manch anderes Datacenter so ansehe.... :)

Und danke für den Bericht, denke einige hier sehen sowas mal zum ersten von innen.... Vielleicht gibt in der Zukunft weniger Leute die 100k für einen Server für einen Aprilscherz halten :)
 
Dabei seit
Feb. 2012
Beiträge
177
#9
Schon beeindruckend, was Intel da an Rechenleistung hat. Ich frage mich, was die dort berechnen um solch ein Rechenzentrum auszulasten. Klar rechnen die Chip-Design aber ist das so aufwendig und was müssen die Leute auf dem Kasten haben, die eine Software dafür schreiben.
Du glaubst nicht, wie lange man an ein paar Transistoren simulieren kann.

Ich selbst habe für 65nm und rund 2k Transistoren schnell mal auch >24h simuliert auf nem 24Core System. Und das waren nur einige billige Transientensimulationen über ein paar ausgewählte Corners...

Und das waren jetzt noch keine MonteCarlo-Simulationen für die Optimierung der Schaltung und zur Bestimmung des Yield usw. Da hätte ich schnell auch mal 100 Server für mehr als einen Tag belegt. Und für die neuen Nodes <32nm ist das alles noch viel viel schlimmer, weil du auch noch Elektromigration, Temperatur, Stress usw simulieren muss/willst.

Wie aber schon angeklungen ist, war/sind die Server an sich aber nicht mal das Problem. Die nötigen Core-Lizenzen sind ein viel viel größeres Problem! Die sind wirklich teuer, nicht die Server an sich oder deren Unterhalt.
 

Intenso84

Lt. Junior Grade
Dabei seit
Nov. 2011
Beiträge
257
#10
Hat AMD auch solche Serverfarmen zum Optimieren ihren Chips oder mieten die sich wo ein? Kann mir nicht vorstellen das die genug Geld haben um selbst welche zu halten.
 
Dabei seit
Aug. 2006
Beiträge
4.784
#13

NeverNice

Lt. Commander
Dabei seit
Dez. 2012
Beiträge
1.499
#14
Dabei seit
Apr. 2009
Beiträge
3.096
#15
@NeverNice, da geht es ja nicht um die Gefahr. Bei 208V brauchst du höhere Ströme für die gleiche Leistung, was seine eigenen Probleme mitbringt.
 
Dabei seit
Jan. 2011
Beiträge
9.607
#16
Dabei seit
Apr. 2015
Beiträge
1.199
#17
die riesen Dinger hätt ich gerne bei mir im Wohnzimmer...dann hätsch erstmal für 20 Jahre ausgesorgt.....:D

wieviel Filme kann ich auf xxBP speichern...in HD Qualität....
 
Dabei seit
Aug. 2006
Beiträge
4.784
#18
Hat AMD auch solche Serverfarmen zum Optimieren ihren Chips oder mieten die sich wo ein? Kann mir nicht vorstellen das die genug Geld haben um selbst welche zu halten.
ich kann mir nicht vorstellen, dass AMD sich irgendwo "einmietet". Sie müssten ja ihre "Technik" bis ins allerletzte Details außer Haus geben!

Nur mal so als Beispiele wie das bei Intel gehandhabt wird: da gibt es spezielle Garantie Verträge mit den Server/NAS Herstellern/Lieferanten (Dell, HP, IBM, EMC, NetApp) damit im (Aus)Fall die HDDs nicht zurück gegeben werden müssen. Eine einmal genutzte HDD darf niemals Intel verlassen, nur nach speziellen Regeln zerstört!
Wenn Backups extern gelagert werden (einige müssen unbedingt mindestens 30 Miles (50km) entfernt gelagert werden), dann nur mit speziellen Security Firmen und in versiegelten Behältern. Inzwischen macht man aber immer mehr Dis2Disk Backups zu einer anderen Site, natürlich auch wieder nur über verschlüsselte VPN Verbindungen.

Wie gesagt, da kann ich mir kaum vorstellen, dass AMD eine "komplette (Nach) Bau-Anleitung" in fremde Hände gibt.
 
Dabei seit
Jan. 2011
Beiträge
9.607
#19
Mickey Mouse
http://www.pcgameshardware.de/CPU-Hardware-154106/News/AMD-holt-Synopsys-ins-Boot-1136866/
Im Falle von AMD sieht der Deal vor, dass Synopsys AMD in mehreren Bereichen unterstützt. Dazu gehört Zugang zu geistigem Eigentum in den Schwerpunkten Interface, Memory Compiler, Logic Library und Analog-Technik für den Finfet-Prozess. Im Gegenzug bekommt Synopsys Zugang zu Fachwissen von AMD und übernimmt ein Team von rund 150 AMD-Ingenieuren, um sie in der Forschung und Entwicklung einzusetzen.
420 bis 450 Millionen US-Dollar soll AMD dadurch alleine in diesem Jahr sparen.
 
Top