Rechenzentren-Betreiber: Nachfrage nach Cloud-Computing für AI ist „absurd“

Andreas Frischholz
159 Kommentare
Rechenzentren-Betreiber: Nachfrage nach Cloud-Computing für AI ist „absurd“
Bild: Nvidia

Es werde massiv unterschätzt, wie sehr das AI-Wettrüsten den Markt um Rechenzentren in den kommenden fünf Jahren erweitern wird, erklärt der Mitgründer des Rechenzentren-Betreibers CoreWeave laut einem Bericht von Bloomberg. Die Nachfrage nach Cloud-Computing-Leistung sei „absurd“.

Der Markt entwickele sich derzeit rasant. Viele Interessierte würden direkt nach einem kompletten Rechenzentren-Campus fragen. CoreWeave-Mitgründer Brian Venturo rechnet daher mit dem Entstehen von Mega-Campussen, die jedoch eine enorme Belastung für die lokale Infrastruktur – und insbesondere die Energieversorgung – darstellen. Zudem erwartet er einen Wettlauf um Ressourcen, weil die Lieferkette nicht auf ein solches Wachstum ausgelegt sei.

Amazon und Microsoft planen massive Investitionen

Dass ein solches Wettrennen bevorsteht, verdeutlichten bereits die Berichte der letzten Wochen. So will Amazon in den nächsten 15 Jahren insgesamt knapp 150 Milliarden US-Dollar in Rechenzentren stecken. Microsoft plant laut Medienberichten einen Supercomputer mit dem Codenamen „Stargate“ und einem Budget von rund 100 Milliarden US-Dollar, der Teil eines größeren Ausbauplans sei. Mit dieser Rechenzentren-Infrastruktur soll OpenAI KI-Modelle entwickeln und betreiben.

Enorm ist die Energie, die für solche Anlagen erforderlich ist. So sind die Betreiber auf der Suche nach geeigneten Standorten. Fossile Energieträger möchte man nicht verwenden, neben den Erneuerbaren ist aber regelmäßig auch von Atomkraft die Rede.

Energiehunger erschwert Produktentwicklung

Der Bedarf an Energie hat auch reelle Konsequenzen für die Produktentwicklung. Im Fall von Google heißt das etwa: Die Suchmaschine um generative AI-Funktionen zu erweitern, ist nicht ohne weiteres möglich. Direkt eine Antwort zu generieren, erfordert mehr Rechenkapazitäten als das Darstellen von zehn Links. Wie viel höher der Verbrauch ist, lässt sich nur schwer quantifizieren. In Medien war schon von dem Faktor 6 die Rede. Laut einer Analyse von Limited Systems könnte der Verbrauch aber auch um das 24- bis 236-fache höher sein.

Laut einem Bericht der Financial Times wäre neue AI-Suche dann ein Premium-Feature. Eine kostenfreie Version mit langsamerem Modell sowie eine Bezahlversion mit aktuellem Modell und zusätzlichen Funktionen ist aber ohnehin das Geschäftsmodell, was sich bei den AI-Diensten derzeit etabliert. Das verwendet derzeit etwa auch OpenAI bei ChatGPT (Plus) und Microsoft beim Copilot (Pro). Aber auch der AI-Suchmaschinenbetreiber Perplexity operiert so.

Wie der YouTube-Kanal AI Explained analysiert, steht durch Microsofts Stargate-Pläne auch OpenAI unter Druck. Microsoft will die Infrastruktur demnach nur dann aufbauen, wenn auch Modelle in Aussicht sind, die den Aufwand rechtfertigen. Insbesondere GPT-5 wird also Fortschritte liefern müssen. Die Veröffentlichung des GPT-4-Nachfolgers wird in diesem Sommer erwartet.