Altman verteidigt KI-Energiebedarf: „Ein Mensch braucht 20 Jah­re, um intelligent zu werden“

Michael Schäfer
140 Kommentare
Altman verteidigt KI-Energiebedarf: „Ein Mensch braucht 20 Jah­re, um intelligent zu werden“
Bild: OpenAI

Gegenüber dem Indian Express hat OpenAI-CEO Sam Altman in einem Interview Stellung zum hohen Energiebedarf für das Training und den Betrieb von KI-Modellen genommen und dabei die seiner Ansicht nach hohe Energieeffizienz hervorgehoben. Das von ihm gewählte Beispiel sorgte über das Wochenende bereits für hitzige Diskussionen.

Zwei Jahrzehnte für Lernen und Ausbildung

Als Grundlage für seine Aussage führt Altman an, dass ein Mensch seiner Meinung nach rund 20 Jahre für Lernen und Ausbildung benötige, um schließlich Aufgaben eigenständig ausführen zu können. In dieser Zeit werde ebenfalls eine große Menge an Energie verbraucht. Dazu zählt er unter anderem auch die Nahrung, die ein Mensch in diesem Zeitraum benötige. Er betonte zudem, dass KI-Modelle wie ChatGPT nach dem Training pro Abfrage deutlich energieeffizienter als Menschen agieren würden, womit KI-Modelle trotz der anfänglichen Trainingskosten langfristig betrachtet weitaus weniger Energie benötigen sollen.

KI soll von der Energiebilanz bereits aufgeholt haben

Wird darüber hinaus die gesamte menschliche Evolution und die Entwicklung der Wissenschaft berücksichtigt, seien KI-Modelle tatsächlich viel effizienter in dem, was sie tun, als die Menschheit als Ganzes. Für ihn habe künstliche Intelligenz bereits dann aufgeholt, wenn ein System darauf trainiert sei, eine vom Nutzer gestellte Frage beantworten zu können.

Energieversorgung weiterhin eine Herausforderung

Aktuell stellt nichtsdestoweniger insbesondere die Verfügbarkeit von Strom die größte Limitierung beim Ausbau von Rechenzentren für künstliche Intelligenz dar. Erst im November des vergangenen Jahres erklärte Microsoft-CEO Satya Nadella, dass aktuell nicht wie oft angenommen die Chip-, sondern die Energieversorgung das größte Problem beim Bau neuer Anlagen sei, um entsprechende Einrichtungen rechtzeitig in Betrieb nehmen zu können.

Das führt dazu, dass OpenAI zwar bereits massiv Hardware bei Herstellern wie Nvidia und AMD geordert hat, diese jedoch erst abnehmen muss, wenn die entsprechenden Rechenzentrums-Kapazitäten schließlich vorhanden sind.