Bericht Intel: Einblicke in das Data Center Santa Clara

Volker

Ost 1
Teammitglied
Registriert
Juni 2001
Beiträge
18.277
Zum Start der neuen Xeon-Familie alias Broadwell-EP hat ComputerBase Intels Hauptsitz im kalifornischen Santa Clara besucht. An das Gebäude angeschlossen ist eines von 60 Data Centern, die Intel unter anderem für neue Chip-Designs betreibt.

Zum Bericht: Intel: Einblicke in das Data Center Santa Clara
 
Schon beeindruckend, was Intel da an Rechenleistung hat. Ich frage mich, was die dort berechnen um solch ein Rechenzentrum auszulasten. Klar rechnen die Chip-Design aber ist das so aufwendig und was müssen die Leute auf dem Kasten haben, die eine Software dafür schreiben.
 
naja ich kann dir mit meinen bescheidwnen kenntnissen azsm c-praktikum auch ein programm schreiben, das das dung für die nächsten jahrtausende auslastet, irgendwas mit primzahlen geht immer xS
 
die eigentliche Software stammt von Firmen wie Cadence (die haben Mentor aufgekauft), Synopsys & Co.
Da reden wir auch über Kosten im Millionen Bereich nur für die Lizenzen (pro Jahr!).

die meiste Rechenleistung wird für die sogenannten "Regression Runs" gebraucht. Dabei wird eine Schaltung mit "zufälligen" Eingangsdaten simuliert und das simulierte Ergebnis mit dem erwarteten verglichen. Das ganze kann man quasi beliebig lange/oft laufen lassen und je mehr man das macht, desto sicherer kann man sein, dass die Schaltung das tut was man will.

Verwaltet wird das von einer Load-Balancing" Software (oft . Der Ingenieur schaufelt seine Jobs in die Netbatch queue und das System verteilt das dann auf die Maschinen.

Alle "normalen" Server müssen über das gesamte Jahr (365 Tage, 24 Stunden am Tag) mit >90% ausgelastet sein, sonst werden keine neuen bewilligt...
 
Simulationen sind sehr wichtig bei der Entwicklung derart komplexer Chips wie Intel sie herstellt. Nicht nur ihre Funktion muss klar sein sondern auch die physikalischen Eigenschaften werden meist simuliert bevor man mit echten, teuren Chips Versuche macht.

So lassen sich viele Probleme bereits erkennen bevor man viel Geld aufwendet um das Produkt erstmals zu fertigen. DA ist so ein Rechenzentrum fast ein Schnäppchen dagegen.

Man bedenke das z.B. für einen Chip die ganzen Litho-Masken hergestellt werden müssen und unter Umständen Teile von Prozessen überprüft und geändert werden sollten. Das kostet richtig dick Geld.

Habe solche Simulationen schon für Automotive Chips gesehen während meiner Ausbildung in Halbleiterei. Ziemlich interessant, vor allem weil man einige der Probleme in der Simulation echt nie gesehen hätte.
 
Ich frage mich, was die dort berechnen um solch ein Rechenzentrum auszulasten.
Angesichts der Tatsache, dass bald der Zen vor der Tür steht, muss Intel wieder Geschäftspraktiken (so z.B. wie damals zu A64-Zeiten) evaluieren, um den Mittbewerber zu schädigen, ohne zu schnell mit den Gesetzen in Konflikt zu geraten. Das bedarf schon Einiges an Rechenleistung...:D
Ab und an wird das Datacenter auch an Nvidia vermietet.:freak:

naja ich kann dir mit meinen bescheidwnen kenntnissen azsm c-praktikum auch ein programm schreiben, das das dung für die nächsten jahrtausende auslastet, irgendwas mit primzahlen geht immer xS
Oder Pi... :evillol:

Die Racks mit den Computern sind an einem Rechenzentrum eigentlich das Uninteressanteste, interessant ist da die ganze Peripherie wie Stromversorgung / USV, Feuerlöschanlage, Kühlung, Datensicherung usw., war auch mal in einem (kleinerem, mit Worten aus der News ausgedrückt: "0,5-Megawatt-Klasse") Rechenzentrum drin (Privatführung über Kontakte vom Bekannten).

Edit:
Crossfire Sebi schrieb:
Der Warnhinweis ist das beste :lol:
Insbesonders, wenn man mal auf das Typenschild schaut. 208 V (zwischen Phasen, 120 V gegen Erde) Ami-Drehstrom ist lächerlich im Gegensatz zu dem, was bei uns aus der "roten Steckdose" kommt (400 V zwischen Phasen, 230 V gegen Erde).
 
Zuletzt bearbeitet:
DAS nenne ich aufgeräumt. Wenn ich mir so manch anderes Datacenter so ansehe.... :)

Und danke für den Bericht, denke einige hier sehen sowas mal zum ersten von innen.... Vielleicht gibt in der Zukunft weniger Leute die 100k für einen Server für einen Aprilscherz halten :)
 
oldmanhunting schrieb:
Schon beeindruckend, was Intel da an Rechenleistung hat. Ich frage mich, was die dort berechnen um solch ein Rechenzentrum auszulasten. Klar rechnen die Chip-Design aber ist das so aufwendig und was müssen die Leute auf dem Kasten haben, die eine Software dafür schreiben.
Du glaubst nicht, wie lange man an ein paar Transistoren simulieren kann.

Ich selbst habe für 65nm und rund 2k Transistoren schnell mal auch >24h simuliert auf nem 24Core System. Und das waren nur einige billige Transientensimulationen über ein paar ausgewählte Corners...

Und das waren jetzt noch keine MonteCarlo-Simulationen für die Optimierung der Schaltung und zur Bestimmung des Yield usw. Da hätte ich schnell auch mal 100 Server für mehr als einen Tag belegt. Und für die neuen Nodes <32nm ist das alles noch viel viel schlimmer, weil du auch noch Elektromigration, Temperatur, Stress usw simulieren muss/willst.

Wie aber schon angeklungen ist, war/sind die Server an sich aber nicht mal das Problem. Die nötigen Core-Lizenzen sind ein viel viel größeres Problem! Die sind wirklich teuer, nicht die Server an sich oder deren Unterhalt.
 
Hat AMD auch solche Serverfarmen zum Optimieren ihren Chips oder mieten die sich wo ein? Kann mir nicht vorstellen das die genug Geld haben um selbst welche zu halten.
 
Denn unter 60 Grad Fahrenheit (15,5 Grad Celsius) sollten die Server nicht arbeiten, als Maximum werden 95 Grad Fahrenheit (35 Grad) spezifiziert.

Hat jemand hierzu mehr Hintergründe? Was passiert Unerwünschtes unter 60° F?
 
Proxy One schrieb:
Hat jemand hierzu mehr Hintergründe? Was passiert Unerwünschtes unter 60° F?
Gefahr dass sich Kondenswasser bildet!
die Luft ist zwar sehr trocken, aber zu trocken sollte sie auch wieder nicht werden, weil dann die Gefahr von statischen Aufladungen droht.
 
Vindoriel schrieb:
Insbesonders, wenn man mal auf das Typenschild schaut. 208 V (zwischen Phasen, 120 V gegen Erde) Ami-Drehstrom ist lächerlich im Gegensatz zu dem, was bei uns aus der "roten Steckdose" kommt (400 V zwischen Phasen, 230 V gegen Erde).

Ob 208 oder 400 V ist doch egal. Bei 20 Ampere bist du Tot und das 100%ig!
 
@NeverNice, da geht es ja nicht um die Gefahr. Bei 208V brauchst du höhere Ströme für die gleiche Leistung, was seine eigenen Probleme mitbringt.
 
die riesen Dinger hätt ich gerne bei mir im Wohnzimmer...dann hätsch erstmal für 20 Jahre ausgesorgt.....:D

wieviel Filme kann ich auf xxBP speichern...in HD Qualität....
 
Intenso84 schrieb:
Hat AMD auch solche Serverfarmen zum Optimieren ihren Chips oder mieten die sich wo ein? Kann mir nicht vorstellen das die genug Geld haben um selbst welche zu halten.
ich kann mir nicht vorstellen, dass AMD sich irgendwo "einmietet". Sie müssten ja ihre "Technik" bis ins allerletzte Details außer Haus geben!

Nur mal so als Beispiele wie das bei Intel gehandhabt wird: da gibt es spezielle Garantie Verträge mit den Server/NAS Herstellern/Lieferanten (Dell, HP, IBM, EMC, NetApp) damit im (Aus)Fall die HDDs nicht zurück gegeben werden müssen. Eine einmal genutzte HDD darf niemals Intel verlassen, nur nach speziellen Regeln zerstört!
Wenn Backups extern gelagert werden (einige müssen unbedingt mindestens 30 Miles (50km) entfernt gelagert werden), dann nur mit speziellen Security Firmen und in versiegelten Behältern. Inzwischen macht man aber immer mehr Dis2Disk Backups zu einer anderen Site, natürlich auch wieder nur über verschlüsselte VPN Verbindungen.

Wie gesagt, da kann ich mir kaum vorstellen, dass AMD eine "komplette (Nach) Bau-Anleitung" in fremde Hände gibt.
 
Mickey Mouse
http://www.pcgameshardware.de/CPU-Hardware-154106/News/AMD-holt-Synopsys-ins-Boot-1136866/
Im Falle von AMD sieht der Deal vor, dass Synopsys AMD in mehreren Bereichen unterstützt. Dazu gehört Zugang zu geistigem Eigentum in den Schwerpunkten Interface, Memory Compiler, Logic Library und Analog-Technik für den Finfet-Prozess. Im Gegenzug bekommt Synopsys Zugang zu Fachwissen von AMD und übernimmt ein Team von rund 150 AMD-Ingenieuren, um sie in der Forschung und Entwicklung einzusetzen.

420 bis 450 Millionen US-Dollar soll AMD dadurch alleine in diesem Jahr sparen.
 
Zurück
Oben