Interview mit Manuel „HonkHase“ Atug: Wie gefährlich sind KI-Modelle wie Claude Mythos?
Nur weil Modelle wie Claude Mythos mit enormer Lautstärke auf den Markt kommen, krempeln diese die IT-Landschaft nicht von heute auf morgen um, erklärt der IT-Sicherheitsexperte Manuel 'HonkHase' Atug im Interview mit ComputerBase. Er warnt stattdessen vor einer drohenden Abhängigkeit.
Laut Anthropic ist Claude Mythos beim Entdecken und Ausnutzen von Sicherheitslücken so leistungsfähig, dass die Freigabe für die Öffentlichkeit zu riskant sei. „Bei unseren Tests haben wir festgestellt, dass Mythos Preview in der Lage ist, Zero-Day-Sicherheitslücken in allen gängigen Betriebssystemen und Webbrowsern zu identifizieren und auszunutzen“, heißt es im Blog-Beitrag. Aufgrund der Menge der entdeckten Schwachstellen konnte man bislang nur einen Bruchteil verifizieren, lieferte aber Beispiele, wie etwa den Linux-Kernel und das für besondere Sicherheit bekannte Betriebssystem OpenBSD.
- Claude Mythos und Opus 4.7: Was leisten Anthropics neue Spitzenmodelle?
- Autonom Exploits entwickeln: Anthropics neues Modell ist so stark, dass es nicht veröffentlicht wird
Sind Modelle wie Claude Mythos tatsächlich ein Risiko für die IT-Sicherheit? Oder ist es eher der Hype, der Anthropic schürt, um sich etwa für den anvisierten Börsengang zum Jahresende in Stellung zu bringen?
Unabhängige Bewertungen wie die des AI Security Institute ergeben immerhin neue Bestwerte in Benchmarks. Ein Knackpunkt ist aber, inwieweit sich solche Labortests in die Praxis übertragen lassen. Analysen der Linux-Distribution Red Hat klingen bereits zurückhaltender. Die im Linux-Kernel entdeckten Sicherheitslücken, die Anthropic im Blog beschreibt, bewertet man mit einem schwachen bis moderaten Sicherheitslevel. Relevanter ist laut Red Hat vor allem die Menge an Sicherheitslücken und Berichten, mit denen IT-Anbieter konfrontiert werden.
Was ist also dran am Hype um Claude Mythos? Was bedeuten KI-Modelle, die systematisch Sicherheitslücken identifizieren, für die IT-Landschaft? Und wie ist diese Entwicklung generell zu bewerten?
Über diese Themen hat ComputerBase mit Manuel 'HonkHase' Atug gesprochen. Er ist eines der bekannten Gesichter der deutschen IT-Sicherheitsszene und befasst sich regelmäßig mit dem Schutz kritischer Infrastrukturen. Er ist einer der Gründer und Sprecher der AG Kritis. Die unabhängige Organisation berät Politik, Unternehmen und Öffentlichkeit im Bereich Cyber-Sicherheit, unter anderem war er Sachverständiger für die Bundesregierung und die Bundesländer tätig.
Das Interview wurde am 15. April via Teams geführt.
ComputerBase: Mit Claude Mythos hat Anthropic ein neues Modell vorgestellt, das hohe Wellen geschlagen hat. Ist es tatsächlich ein Meilenstein oder eher Marketing und einfacher Modellfortschritt, der angesichts des anstehenden Börsengangs besonders befeuert wird?
Manuel Atug: Im Wesentlichen ist es sehr viel Marketing und Börsengang. Es ist jetzt nicht so, als hätten sie völlig magisch etwas Neues entwickelt. Auch mit Claude und den Opus-Modellen kann man beispielsweise Schwachstellen schon relativ gut finden, wenn man genug Tokens reinwirft und einen guten Workflow aufbaut. Natürlich werden die Modelle auch immer besser, wenn sie spezifisch sind. Das ist aber keine Magie und nichts weltbewegend Spezielles.
Mal so gesagt: Wenn das System wirklich richtig krasse Sicherheitslücken ohne Ende zum Vorschein bringen würde und es gar nicht so aufwendig oder teuer wäre, dann müsste man sich ernsthaft die Frage stellen, warum es in den USA eine kleine Runde mit Banken gibt, in der man das Modell vorstellt, bespricht und zugänglich macht. Und nicht als erstes beispielsweise Atomkraftwerke oder andere kritische Infrastrukturen mit in den Kreis packt. Da merkt man schon, da stimmt was nicht. Banken haben durchaus viel Geld, um solche Lösungen zu bezahlen und natürlich sind Banken auch kritische Infrastruktur. Aber das passt alles insgesamt nicht ins Bild.
Es gibt bereits freie Modelle, mit denen sich ein Workflow aufbauen lässt, durch den sich schon recht gut Schwachstellen beispielsweise in Quellcode finden lassen. Das funktioniert, nur muss man sich dabei ein bisschen Mühe geben. So etwas wird in der Zukunft auch weiter vereinfacht werden, weil es halt mehr Automatisierung ist. Das ist aber der normale Weg.
Was wir erleben, ist also Automatisierung durch Software und somit Automatisierung durch Algorithmen. KI ist jetzt eine neue Variante davon. Aber eine Variante, die mit viel Marketing auf den Markt geschmissen wurde. Wir werden damit umgehen müssen, aber deswegen fällt jetzt keiner tot um.
ComputerBase: Für Aufsehen sorgte bereits ein Projekt, bei dem Anthropic mit der Mozilla Foundation kooperiert und zahlreiche Sicherheitslücken im Firefox-Browser entdeckt hat. Diese wurden sogar schon mit Firefox 148 geschlossen. Sind solche Kooperationen bislang noch Experimente oder ein Hinweis für den Weg, den die Branche in den nächsten Monaten und Jahren gehen wird?
Manuel Atug: Ich denke, für Anthropic selber war es eine interessante Kooperation. Tendenziell findet man in Microsoft-Betriebssystemen oder in Webbrowsern viele Sicherheitslücken, weil ständig neue Entwicklungen integriert werden, die Sicherheitslücken verursachen. Das endet auch nie. Insofern war es eine Low Hanging Fruit, bei so einer Kooperation möglichst viele Lücken zu entdecken.
Vom Marketing her ist so eine Kooperation mit großen Browserherstellern oder Betriebssystemherstellern natürlich immer nett. Aber wenn es dem Browserhersteller hilft, Lücken zu finden und zu schließen, warum nicht – solange Hersteller sich nicht dumm und dusselig zahlen müssen.
Das ist nämlich das nächste Problem. Diese Lösungen verbrauchen unheimlich viele Tokens und die muss man bezahlen [Anmk. der Red.: Das Finden und Ausnutzen der Lücke in OpenBSD soll 20.000 US-Dollar gekostet haben]. Man hat mehr Automatisierung, findet mehr Lücken. Die Frage ist nur, lohnt es sich, alle Lücken zu finden? Wenn ich viele Agenten parallel laufen lasse, ist das nicht kostengünstig. Nicht unbedingt attraktiv, wenn ich andere Wege habe, um ans Ziel zu kommen.
ComputerBase: Was heißt das für Unternehmen?
Manuel Atug: Nun haben viele Betreiber von IT-Systemen und Enterprise-Softwarehersteller in der Regel kein Interesse, sichere Systeme zu bauen, also Security by Design und Default zu konzipieren. Davon sind sie abgerückt und stellen oftmals echt schlechte Software bereit. Mal schauen, wie viele Unternehmen KI-Dienste oder etwas Vergleichbares integrieren. Diejenigen, die sich ernsthaft in IT-Umgebungen um die Sicherheit kümmern, müssen natürlich die neuen Möglichkeiten beachten.
Für Unternehmen heißt das, dass sie gut beraten sind, wenn sie sichere Systeme einkaufen, das vertraglich einfordern und auf Security by Design & Default bestehen. Wenn sie selbst eine sichere Umgebung betreiben wollen, sollten sie in ihren Geschäftsprozessen sichere Prozessabläufe in den Kernprozessen und den damit verbundenen IT-Systemen aufbauen, um ihr Geschäft abzusichern. Denn Sicherheit ist ein Prozess und kein Zustand. Wer also weiß, wie er präventiv und reaktiv agieren muss, weil alle Prozesse existieren und die Abläufe geübt werden, der weiß auch, wie er einen Angriff übersteht, ohne Panik haben zu müssen. Egal ob mit oder ohne KI. Und natürliche Intelligenz gepaart mit klaren (Sicherheits-)Zielen, die man erreichen will, ist essenziell für ein nachhaltiges Bestehen als Unternehmen am Markt.
Aufpassen müssen wir aber alle generell, dass wir nicht mit KI auf IT-Systeme feuern, um uns dann mit KI vor diesen Lücken abzuschotten. Denn dann müssten wir die ganze Zeit diese KI-Dienstleistungen „KI gegen KI“ einkaufen und das wird richtig teuer. Die einzigen, die daran wirklich verdienen, sind die KI-Betreiber und damit wieder die üblichen Verdächtigen Tech-Konzerne der Tech-Bros aus den USA. Das wäre sehr schlecht. Wir müssen wirklich aufpassen, dass wir nicht in diese Falle tappen, die uns da gerade aufgebaut wird, weil das ein lukratives Geschäftsmodell für die ist.
Am Ende wird die Zeit zeigen, wie viele Kooperationen es mit KI-Betreibern geben wird und wie der Wettbewerb zwischen den KI-Anbietern aussieht. Oder ob man irgendwann in der Lage ist, Modelle in einer eigenen Umgebung zu betreiben, sodass man diese auch mit vertraulichem Code nutzen kann. Die Frage ist auch, ob KI-Betreiber dabei mitspielen, weil diese ja ein sehr hohes Interesse an der Abhängigkeit haben.