Forschungsprogramm: OpenAI entwickelt Technik zur Kontrolle von Superintelligenzen

Andreas Frischholz
37 Kommentare
Forschungsprogramm: OpenAI entwickelt Technik zur Kontrolle von Superintelligenzen
Bild: OpenAI

Superintelligenzen, die Menschen überlegen sind, bezeichnet OpenAI schon öfter als Risiko bei der KI-Entwickelung. Um Sicherheitsmaßnahmen im Umgang mit solchen Systemen zu erfinden, hat OpenAI nun ein separates Team aufgestellt, das 20 Prozent der Rechenleistung des Unternehmens nutzen soll.

Forschung für Kontrollsystem

Die Kernannahme ist also nach wie vor, dass es auf absehbare Zeit Superintelligenzen geben wird, die Menschen übertreffen. Was bei der Ankündigung im Blog ebenfalls wie gehabt ist: Was genau eine solche Superintelligenz ausmacht und wie das Risiko konkret aussieht, definiert OpenAI nicht. Stattdessen ist vage von einer potenziellen Auslöschung der Menschheit die Rede. Denn das Problem ist, derzeit existiere keine Lösung „zum Steuern oder Kontrollieren einer potenziellen Superintelligenz“. Ebenso wenig lasse sich verhindern, dass diese abtrünnig wird – also sich gegen Menschen richtet.

Solche Lösungen sollen nun im Rahmen eines Forschungsprogramms entstehen, das auf vier Jahre ausgelegt ist und wie erwähnt auch die entsprechenden Rechenkapazitäten bereitstehen. Von „wissenschaftlichen und technischen Durchbrüchen“, die erforderlich sind, spricht OpenAI in dem Blog-Beitrag. Man selbst will nun einen Ansatz verfolgen, bei dem ein automatisiertes System entsteht, das problematisches Verhalten von KI-Modellen frühzeitig erkennen kann.

Das entsprechende Team wird unter anderem OpenAIs Chefentwickler und Mitgründer Ilya Sutskever leiten.

Nur eine Minderheit warnt

Bereits in den letzten Wochen sprach OpenAI von Risiken durch Superintelligenzen und forderte neben mehr Forschung auch eine globale Aufsicht. Wie bedrohlich KI-Systeme wären, erklärten zudem prominente Forscher wie die Turing-Award-Gewinner Geoffrey Hinton und Yoshua Bengio. Bei diesen Warnern vor der Bedrohung durch KI-Systeme handele es sich aber nur um eine Minderheit der KI-Forschungscommunity, erklärte Prof. Antonio Krüger, Leiter des Deutschen Forschungszentrum für KI, im ComputerBase-Interview.

Krüger hält die Warnungen derzeit für kaum nachvollziehbar, weil bei der aktuellen Technik nicht klar sei, wie diese zu einer Superintelligenz führen soll, die eine eigene Agenda verfolgt. Und selbst wenn so ein System entstehen würde, sei nicht sicher, ob es tatsächlich die Menschheit bedrohe. Aspekte wie Aufmerksamkeitsgenerierung wären daher eine relevante Triebfeder bei solchen Warnungen.

Dass solche Warnungen eine Form von Marketing sind, wird OpenAI regelmäßig vorgeworfen. Ein weiterer Kritikpunkt ist, dass das Unternehmen von Gefahren wie etwa Desinformation ablenken würde, die derzeit bereits Probleme verursachen.