KI-Forscher und Elon Musk: Sechs Monate Pause für das „riesige KI-Experiment“

Andreas Frischholz
131 Kommentare
KI-Forscher und Elon Musk: Sechs Monate Pause für das „riesige KI-Experiment“
Bild: geralt | CC0 1.0

Die schnellen Fortschritte bei der KI-Entwicklung durch Sprachmodelle wie GPT-4 von OpenAI befeuern nicht nur einen Hype, sondern auch Befürchtungen über die negativen Konsequenzen. KI-Forscher und Prominente wie Elon Musk fordern daher einen Entwicklungsstopp mächtiger KI-Modelle für sechs Monate.

Das geht aus einem offenen Brief hervor, der mittlerweile mehr als 1.000 mal unterzeichnet wurde. Zu den Unterstützern zählen KI-Forscher wie Yoshua Bengio und Stuart Russel, Autoren wie Yuval Noah Harari sowie IT-Prominenz Steve Wozniak und eben Musk.

Hinter dem offenen Brief steht das Future of Life Institute. Das verfolgt das Ziel ,,globale Risiken zu minimieren, die von mächtigen Technologien ausgehen“. Dazu zählen neben KI-Entwicklungen etwa Biotechnologie, Nuklearwaffen und der Klimawandel.

6 Monate Pause für die Entwicklung intelligenter Modelle

Wir fordern alle KI-Labore auf, das Training von KI-Systemen, die mächtiger als GPT-4 sind, ab sofort für mindestens sechs Monate zu pausieren“, heißt es in dem Brief. Das soll für alle relevanten Akteure gelten. Lässt sich ein Verbot nicht freiwillig durchsetzen, sollten Staaten ein Moratorium verhängen. KI-Entwickler und unabhängige Experten sollten die Pause nutzen, um Sicherheitsprotokolle für fortschrittliche KI-Designs zu entwickeln.

Was die Unterzeichnenden befürchten, ist vielfältig. Die Spannweite reicht von mittels KI-Tools hergestellter Desinformation und Propaganda, die Medien fluten, über die Automatisierung von Jobs bis zu einer übergeordneten Intelligenz, die „uns übertrifft, überflüssig macht und ersetzt“. Für die Gesellschaft bestehe das Risiko, die Kontrolle zu verlieren. Daher wären beim Umgang mit solchen KI-Technologien Entscheidungen fällig, die man nicht an „nicht demokratisch gewählte Tech-Führungskräfte“ delegieren sollte.

Das soll kein Stopp für die Entwicklung sein. Vielmehr wäre es „eine Abkehr von dem gefährlichen Wettlauf zu immer größeren und unberechenbaren Black-Box-Modellen“.

Reaktion auf den KI-Wettlauf

Es ist also eine unmittelbare Reaktion auf den KI-Wettlauf, den sich die Branchengrößen liefern, seit OpenAI im November den Hype mit der Veröffentlichung von ChatGPT startete. Vor allem Microsoft verfolgt derzeit eine aggressive Strategie, um auf Large Language Models (LLM) basierende KI-Funktionen in die eigenen Produkte zu integrieren. Google will aber ebenfalls auf KI-Assistenten setzen. Zudem arbeitet Meta an entsprechenden Sprachmodellen. Zudem wollen eine Vielzahl von Anbietern OpenAIs GPT-Modelle nutzen, um die eigenen Dienste um KI-Funktionen zu erweitern.

Was die KI-Helfer in Praxis am Ende leisten werden, bleibt aber noch abzuwarten. ChatGPT und Microsofts Bing-Integration liefern bereits erstaunliche Ergebnisse, aber auch vielfach skurriles und schlicht falsches. Ebenso muss sich zeigen, ob die KI-Assistenten in den Office-Lösungen tatsächlich den Alltag erleichtern.

Umstritten ist zudem auf theoretischer Ebene, als wie leistungsfähig die aktuellen Large Language Models (LLM) zu bewerten sind. Hintergründe dazu liefert der Bericht des deutschen Ethikrats über KI-Modelle (PDF, ab S. 83).

Der Ethikrat kam angesichts der Entwicklungen der letzten Jahre zu dem Schluss: KI-Lösungen können ein mächtiges Werkzeug sein, Menschen sollten aber die Kontrolle behalten.

Interessant ist erneut die Personalie Musk. Er erklärt seit Jahren, KI wäre einer der größten Risiken für die Menschheit. Bis 2018 war er allerdings selbst bei OpenAI involviert. Offiziell erfolgte damals der Ausstieg, weil ein Interessenskonflikt mit Tesla befürchtet wurde. Im Februar dieses Jahres machte zudem die Meldung die Runde, Musk wolle KI-Entwickler anheuern, um einen ChatGPT-Konkurrenten zu entwerfen.