Project Natick: Microsoft holt Server nach 2 Jahren aus dem Meer

Frank Hüber 195 Kommentare
Project Natick: Microsoft holt Server nach 2 Jahren aus dem Meer
Bild: Microsoft

Nachdem Microsoft 2015 und 2016 in ersten Experimenten Serverkapseln im Meer versenkt hatte, wurde im Jahr 2018 ein Rechenzentrum im Meer vor dem schottischen Archipel Orkney versenkt, das zwölf Server-Racks beherbergt und bis zu fünf Jahre unter Wasser bleiben sollte.

Insgesamt 864 Server mit 27,6 Petabyte Speicherkapazität hatte Microsoft in knapp 36 Metern Tiefe im Rahmen des Project Natick in einer geschlossenen Kapsel versenkt. Nun wurde die Kapsel wieder geborgen und Microsoft bezeichnet das Projekt, Server im Meer zu versenken, als eine gute Idee, da sie unter anderem zuverlässig und praktisch sind, aber auch Energie nachhaltig einsetzen.

Vorteile einer Serverkapsel in fast 36 Metern Tiefe im Vergleich zu Rechenzentren an Land sind unter anderem die relativ konstante, niedrige Temperatur, die geringe Luftfeuchtigkeit und so auch die geringere Korrosion der Bauteile. Die Kapsel war mit trockenem Stickstoff gefüllt. Wie sich dieser im Laufe der Zeit verändert hat, analysiert Microsoft nun. Auch die Bauteile werden nun nach Redmond gebracht und dort untersucht.

Durch derartige Serverkapseln lassen sich Rechenzentren dort aufbauen, wo sie benötigt werden, so Microsoft, so dass lokaler Cloud-Speicher bereitgestellt werden kann, was auch angesichts lokaler Datenschutzgesetze mitunter wichtig ist.

Ausfallrate deutlich niedriger als an Land

Zumindest die Wartung der Server ist jedoch weniger praktisch, denn schlicht unmöglich. Hardware-Ausfälle konnten bei den Servern im Meer nicht behoben werden. Fällt ein Server ganz oder teilweise aus, musste er defekt in der Kapsel belassen werden. Eine aufwendige Schleuse, mit der sich Techniker Zugang zu den Servern verschaffen könnten, war nicht vorgesehen. Allerdings erwies sich die Ausfallrate bei den Unterwasser-Servern als deutlich niedriger als an Land. Sie betrug laut Microsoft lediglich ein Achtel der sonst üblichen Ausfallrate. Hier sei auch das Fehlen menschlicher Eingriffe auf (benachbarte) Hardware von Vorteil.