Interview mit Manuel „HonkHase“ Atug: Sind Sicherheitslücke findende Modelle eher Utopie oder Dystopie?

 2/2
Andreas Frischholz
57 Kommentare

ComputerBase: Bruce Schneier hat vor kurzem von einem Wettrüsten im Zeitalter von Instant Software gesprochen. Angenommen, Angreifer sind jetzt tatsächlich in der Lage, mit KI-Modellen massenhaft Exploits zu entwickeln. Hat man dann als IT-Anbieter oder Betreiber eines regulären Open-Source-Projekts überhaupt eine Wahl, um der von Ihnen beschriebenen Falle zu entgehen?

Manuel Atug: Was ein bisschen gegen diese Sichtweise spricht, ist die heutige IT-Landschaft. Wenn wir beispielsweise sehen, dass in Deutschland laut BSI 33.000 Microsoft Exchange Server von Unternehmen betrieben werden, die offen über das Internet erreichbar sind und keine Patches mehr erhalten: Die wurden auch nicht alle kompromittiert, verschlüsselt oder zum Absturz gebracht. Wenn wir uns kritische Infrastrukturen und deren Betriebsumgebung anschauen, also etwa die Prozessautomatisierung in den Fabrikfertigungsanlagen, dann haben die da ja nicht nur IT stehen, sondern auch OT, also etwa SPS-Steueranlagen oder SCADA-Systeme.

Unheimlich oft ist da IT- und OT-Equipment im Einsatz, das teilweise Jahre und Jahrzehnte alt ist, und seit etlichen Jahren keine Updates mehr bekommt. Oder selbst wenn es Updates gibt, dürfen Betreiber diese nicht einspielen, weil dann die Fabrikfertigung, also die Prozessautomatisierung, gar nicht mehr funktioniert. Teilweise sind die Hersteller der ursprünglichen Lösung nicht mehr auf dem Markt oder benutzen stark veraltete Software wie etwa Windows XP. Windows XP wird noch tonnenweise in kritischen Infrastrukturen eingesetzt.

Jetzt hat Windows XP etliche Sicherheitslücken und bekommt keine Patches mehr. Sind alle kritischen Infrastrukturen mittlerweile lahmgelegt worden? Nein, denn es gibt immer auch andere Möglichkeiten, Schutzmaßnahmen in die Prozesse einzubauen oder Systeme abzusichern. Das ist in allen Bereichen so, nicht nur an diesen Stellen.

Insofern würde ich verhalten sagen: ja klar, es wird eine Veränderung im Umgang mit Sicherheitslücken geben. Generell wird die Open-Source-Tool-Landschaft tendenziell eher sicherer, weil Lücken natürlich gefunden und geschlossen werden. Und pauschal wird auch nicht jede Lücke sofort ausgenutzt. Teilweise werden die Open-Source-Anbieter mit Anfragen überladen – darunter sind auch viele falsche Hinweise durch schlechte KI – und sie müssen alles abarbeiten beziehungsweise prüfen. Aber damit haben sie eine gute Chance, Schwachstellen zu fixen.

Bei den ganzen KI-Anbietern gibt es schon Unternehmen wie ein neues „stealth Startup“ aus Israel, deren Gründer wieder mal aus dem ehemaligen Militär- und Geheimdienstumfeld stammen. Die sagen jetzt: Wir haben eine Tool-Chain, mit der man automatisch Exploits entwickeln kann. Das ist eine Zweitverwertung auf dem Markt, Militär und Geheimdienste nutzen solche Lösungen schon lange. Der Zweitmarkt aus diesem offensiven Dunkelbereich wird jetzt wieder mal durch Israel befüllt, es ist nicht nur Anthropic, die in diesem Bereich ein Geschäft machen wollen.

Es ist also nichts Neues und anscheinend bei staatlichen Akteuren quasi schon Standard. Hat Israel dadurch alle Kriege gewonnen? Offensichtlich nicht. Scheinbar gibt es also auch Grenzen des damit machbaren für aggressiv angreifende Akteure, was ein gutes Signal ist.

Bislang sind solche Lösungen zudem offensive Werkzeuge. Defensiv wäre es, wenn das KI-System Schwachstellen prüft und den passenden Patch mitliefert. Das System würde sagen: ‚Hier ist der Open-Source-Patch, den du bei dir im System direkt vollautomatisch eingespielt bekommst, damit dein System save und secure ist‘. Dieser Teil fehlt aber – wie so oft. Die KI-Anbieter sagen „'wir können alles kompromittieren“, niemand diskutiert mit denen aber, was eigentlich der interessante Teil zur Absicherung wäre und wie man diese KI-Lösung wirklich nutzen könnte, um Systeme sicher zu bekommen.

ComputerBase: Anthropic hat das Projekt Glasswing gestartet, um rund 40 Organisationen beim Absichern ihrer Systeme zu unterstützen. Die Spanne reicht von Konzernen wie Amazon und Microsoft bis zu Open-Source-Projekten wie der Linux Foundation. Bereitgestellt werden dafür Computing-Leistungen im Wert von 100.000 Millionen US-Dollar sowie eine Direktspende an Open-Source-Projekte in Höhe von 4 Millionen US-Dollar.

Manuel Atug: Man kann es aus verschiedenen Sichtweisen betrachten. Natürlich kann man sich über die Spende freuen und Open-Source-Tools können austesten, ob sie damit Sicherheitslücken schließen können. Die 100 Millionen US-Dollar sind aber eher so etwas zum Anteasern von Interessierten wie Banken. Im Prinzip ist das wie Trial-Software aus den 90er Jahren, die man für 30 Tage umsonst nutzen konnte.

Eine andere Perspektive ist: Die Summen sind nichts angesichts der Gelder, die beim Börsengang im Raum stehen. Anthropic arbeitet an einem Bedarf, der womöglich nicht zwingend vorhanden ist, aber alle reden jetzt darüber und potenzielle Kunden können es sogar testen. Es ist sehr gefährlich, wenn dabei eine Abhängigkeit von einer monopolisierten KI eines Konzerns entsteht.

Und davon abgesehen sind die 100 Millionen US-Dollar der Verkaufspreis und nicht die echten Kosten des Unternehmens, die nur ein Bruchteil davon darstellen.

ComputerBase: Wenn sich mit Modellen wie denen von Anthropic tatsächlich automatisch Sicherheitslücken entdecken lassen und es zumindest in der Theorie die Option gibt, dass IT-Systeme sicherer werden: Erleben wir hier eher den Weg in eine Utopie oder Dystopie?

Manuel Atug: Ich wünsche mir natürlich die Utopie und ich würde mir auch wünschen, dass Enterprise-Softwarehersteller es wirklich ernst nehmen, Sicherheitslücken zu schließen oder generell dafür zu sorgen, dass erst gar keine entstehen. Ich fürchte aber, es wird wieder mal die Dystopie. Wie jedes Mal, wenn große Tech-Konzerne mit Cloud, KI, Glitzer-Hype und Tralala um die Ecke kommen und sagen: ‚Gib uns deine Millionen und danach ist alles schön und glücklich‘. Was wir bisher immer erlebt haben, war aber nicht schön und glücklich, sondern abhängig und teuer.

Wenn wir mal den Gedanken durchspielen: Diese Unternehmen – sei es ein Betriebssystemhersteller, sei es ein Softwarehersteller, sei es ein KI-Anbieter für Security-Modelle – haben keinen Markt mehr, wenn alles komplett gesichert und wirklich resilient ist. Ist es also deren ureigenstes unternehmerisches Geschäftsinteresse, die Probleme grundlegend auszumerzen oder wollen die eine schöne Show mit Prozessen und dann fuchteln wir weiter mit kaputten Systemen herum, weil die Hersteller immer noch keinen Bock haben, sichere Systeme zu bauen, weil sie viel Profit an dem Defekt mitnehmen? Ich fürchte, zweiteres ist die Realität.

Sie werden also in erster Linie ihre Erlösmaximierung im Vordergrund haben, nicht das Wohlbefinden und die Sicherheit ihrer Kunden. Denn sie leben ja von der Unsicherheit der Kunden und würden sich ansonsten selbst den Markt austrocknen.

Aber so wie Anbieter wie Anthropic auftreten, versuchen sie, einen Markt aufzubauen und zu monopolisieren. Das spricht gegen die Utopie.

Dieser Artikel war interessant, hilfreich oder beides? Die Redaktion freut sich über jede Unterstützung durch ComputerBase Pro und deaktivierte Werbeblocker. Mehr zum Thema Anzeigen auf ComputerBase.

Billboard März 2026