Trusted Access for Cyber: GPT 5.4 Cyber ist OpenAIs Reaktion auf Claude Mythos

Michael Schäfer
8 Kommentare
Trusted Access for Cyber: GPT 5.4 Cyber ist OpenAIs Reaktion auf Claude Mythos
Bild: OpenAI

OpenAI gerät weiter unter Zugzwang und hat nach Claude Mythos von Anthropic ebenfalls ein angepasstes KI-Modell für defensive Cyber-Sicherheit vorgestellt, womit zugleich das bereits länger bestehende „Trusted-Access-for-Cyber“-Programm (TAC) ausgebaut wird, das verifizierten Experten Zugriff auf neue Funktionen bietet.

Erweiterte Sicherheitsstrategie

Mit diesem Schritt will das Unternehmen seine Strategie erweitern, um der rasant voranschreitenden Entwicklung im Bereich der künstlichen Intelligenz zu begegnen. Da auch Angreifer zunehmend auf KI setzen, würden bisherige Methoden laut OpenAI nicht mehr ausreichen. Als ein Aspekt von zahlreichen folgenden wurde das bereits seit 2023 im Rahmen des Grant Program existierende TAC-Programm auf Tausende verifizierter einzelner Cyber-Sicherheitsfachkräfte sowie Hunderte Teams ausgeweitet, die für den Schutz kritischer Softwaresysteme verantwortlich sind. Das Vorhaben soll in den kommenden Jahren kontinuierlich ausgebaut werden, wofür OpenAI bereits leistungsfähigere Versionen seines Chatbots ChatGPT angekündigt hat.

Die Erweiterung des Sicherheitsprogramms geht mit dem Aspekt einher, dass Cyber-Risiken laut OpenAI aus einer Kombination von Modellfähigkeiten, Benutzeridentität, Absichtssignalen und Zugriffsebene resultieren und nicht allein vom verwendeten Modell abhängen. Mit ChatGPT 5.4 Cyber will das Unternehmen nun eine für solche Fragestellungen optimierte Version geschaffen haben. Diese wird als „cyber-permissive“ beschrieben, da sie die Ablehnungsschwellen für legitime Sicherheitsanwendungsfälle senkt und gleichzeitig bestehende Schutzmaßnahmen aufrechterhält.

Prävention statt aktive Abwehr

Das System soll dabei nicht bei der aktiven Abwehr von Cyber-Angriffen unterstützen, sondern bereits vorgelagert ansetzen. Es soll unter anderem Schwachstellen in Code-Basen sowie in komplexen Softwaresystemen identifizieren können; ebenso umfasst der Funktionsumfang die Analyse von Malware oder anderem schadhaften Code sowie das Reverse Engineering von Binärdateien. Diese Eigenschaften sollen es Sicherheitsexperten ermöglichen, Risiken in kompilierter Software effektiver erkennen und analysieren zu können. Flankierend wurde ein Förderprogramm für Cyber-Sicherheit im Umfang von 10 Millionen US-Dollar gestartet und mehr als 1.000 Open-Source-Projekte mit Codex for Open Source ausgestattet, das unter anderem kostenlose Sicherheitsscans bereitstellt.

Automatisierte Methoden statt spätere Audits

Eine automatisierte Erkennung von Schwachstellen soll unter anderem durch Codex Security erfolgen, das nach einer sechsmonatigen Beta-Phase nun öffentlich zugänglich ist. In einem begleitenden Blogbeitrag hebt OpenAI die Fortschritte des neuen Systems hervor und erklärt, dass Sicherheitsfachleute damit Schwachstellen in Software nicht nur automatisch erkennen, sondern auch beheben lassen können sollen. Kontinuierliche Modell-Upgrades sollen die Wirksamkeit künftig nicht nur sichern, sondern weiter steigern. Gleichzeitig betont das Unternehmen, dass die aktuellen Sicherheitsvorkehrungen für bestehende und kurzfristige Modelle als ausreichend gelten, zukünftige Systeme jedoch aufgrund steigender KI-Fähigkeiten stärkere Schutzmaßnahmen erfordern werden.

Mit dem System wird die Codebasis kontinuierlich auf Schwachstellen überprüft, sodass verbesserte KI-Modelle Sicherheitslücken identifizieren können, die frühere Versionen übersehen haben. In einem nächsten Schritt werden gefundene Probleme validiert, bevor Entwicklern Korrekturen vorgeschlagen oder diese eigenständig umgesetzt werden. In der kürzlich abgeschlossenen Testphase konnte das Tool bereits mehr als 3.000 kritische und schwerwiegende Schwachstellen sowie weitere mit geringerer Auswirkung in Open-Source-Projekten beheben. Ziel ist es, den Übergang von periodischen Audits oder nachgelagerten Korrekturen hin zu einer kontinuierlichen, KI-gestützten Überprüfung zu vollziehen.

Stark reglementierte Zugriffe

OpenAI hat das System nun zusätzlich um streng reglementierte Zugriffe erweitert, die den Zugang zu entsprechenden Funktionen kontrollieren. Dadurch soll ChatGPT 5.4 Cyber möglichst breit verfügbar sein, ohne Missbrauch zu begünstigen. Da das System laut OpenAI deutlich „freizügiger“ agiert, erhalten ausschließlich verifizierte Experten sowie zugelassene Unternehmenskunden einen gestaffelten Zugriff auf das TAC-Programm, der auf verschiedenen Authentifizierungsstufen basiert. Gleiches gilt für geprüfte Organisationen, Forscher und Sicherheitsanbieter. Die Vergabe der Zugriffsrechte erfolgt schrittweise, um eine sichere und kontrollierte Bereitstellung zu gewährleisten.