OpenAI kontert Claude Mythos mit GPT-5.4-Cyber, gibt breiteren Zugang als Anthropic
OpenAI erweitert sein Angebot im Bereich Cybersicherheit mit einem neuen, speziell trainierten Sprachmodell. GPT-5.4-Cyber ist eine Variante von GPT-5.4, die gezielt für defensive Sicherheitsanwendungen optimiert wurde und ab sofort für ausgewählte Nutzer verfügbar ist. Die Veröffentlichung fällt in eine Phase, in der auch Konkurrent Anthropic mit dem Modell Claude Mythos Preview von sich reden macht.
Was GPT-5.4-Cyber leisten soll
GPT-5.4-Cyber ist laut OpenAI eine Version von GPT-5.4, bei der die Einschränkungen für legitime Sicherheitsarbeit gezielt gelockert wurden. Das Modell soll Sicherheitsexperten ermöglichen, komplexe Aufgaben effizienter zu erledigen, ohne an Ablehnungsgrenzen zu stoßen, die für allgemeine Nutzer sinnvoll sind, für professionelle Verteidiger jedoch hinderlich sein können.
Eine der zentralen neuen Fähigkeiten ist die Analyse von Binärcode: Sicherheitsprofis können damit kompilierte Software auf Schwachstellen, Malware-Potenzial und Sicherheitsrobustheit untersuchen, ohne Zugang zum Quellcode zu benötigen. Darüber hinaus soll das Modell erweiterte Workflows für die Cyberabwehr unterstützen, darunter Schwachstellenforschung, Sicherheitsausbildung und defensive Programmierung.
Wer Zugang erhält und wie
OpenAI setzt auf ein abgestuftes Zugangssystem im Rahmen seines bestehenden Programms „Trusted Access for Cyber“ (TAC). Der Zugang zu GPT-5.4-Cyber ist nicht öffentlich, sondern auf geprüfte Sicherheitsanbieter, Organisationen und Forscher beschränkt. OpenAI betont, dass der Einstieg in das Programm unkompliziert gestaltet ist:
- Einzelpersonen können ihre Identität unter chatgpt.com/cyber verifizieren lassen.
- Unternehmen beantragen den Zugang über ihren OpenAI-Ansprechpartner.
- Wer bereits im TAC-Programm ist und sich weiter authentifiziert, kann Interesse an höheren Zugangsstufen anmelden, einschließlich des Zugangs zu GPT-5.4-Cyber.
Wegen des erhöhten Missbrauchspotenzials gelten für das Modell besondere Einschränkungen. So ist der Einsatz in Umgebungen ohne Datentransparenz, etwa bei Zero-Data-Retention-Konfigurationen, eingeschränkt. OpenAI begründet dies damit, dass bei solchen Nutzungsszenarien die Sichtbarkeit über Nutzer, Umgebung und Verwendungszweck fehlt.
Die drei Grundprinzipien von OpenAIs Cyberstrategie
OpenAI beschreibt sein Vorgehen anhand von drei Leitprinzipien, die den Rahmen für GPT-5.4-Cyber und künftige Entwicklungen bilden:
- Demokratisierter Zugang: Fortschrittliche Verteidigungswerkzeuge sollen möglichst vielen legitimen Akteuren zugänglich sein, gestützt auf klare Kriterien wie Identitätsverifizierung statt manuelle Einzelentscheidungen.
- Iterative Bereitstellung: Modelle werden schrittweise eingeführt, Sicherheitssysteme werden auf Basis realer Erfahrungen kontinuierlich verbessert.
- Investitionen in die Resilienz des Ökosystems: OpenAI unterstützt die Sicherheitscommunity durch Förderprogramme, Open-Source-Initiativen und Werkzeuge wie Codex Security.
Codex Security als flankierende Maßnahme
Parallel zu GPT-5.4-Cyber verweist OpenAI auf Fortschritte bei Codex Security, einem System zur automatisierten Schwachstellenanalyse in Codebases. Seit dem Start als Research Preview hat Codex Security nach Unternehmensangaben zur Behebung von mehr als 3.000 kritischen und schwerwiegenden Sicherheitslücken beigetragen. Über das Programm „Codex for Open Source“ wurden zudem mehr als 1.000 Open-Source-Projekte mit kostenlosem Sicherheitsscan versorgt.
Reaktion auf Claude Mythos von Anthropic
Die Veröffentlichung von GPT-5.4-Cyber fällt zeitlich mit der Bekanntmachung von Anthropics Claude Mythos Preview zusammen, einem Modell, das nach Angaben des Unternehmens in der Lage ist, Sicherheitslücken nahezu vollständig autonom zu finden und auszunutzen. Anthropic hat das Modell wegen seines Gefährdungspotenzials nicht öffentlich freigegeben und stattdessen mit „Project Glasswing“ eine Initiative für ausgewählte Partner gestartet, darunter Amazon Web Services, Apple, Google, Microsoft und CrowdStrike.
OpenAI verfolgt mit GPT-5.4-Cyber einen vergleichbaren, aber in der Reichweite breiteren Ansatz: Statt eines geschlossenen Partnerkreises setzt das Unternehmen auf ein skalierbares Zugangssystem mit Identitätsverifizierung, das perspektivisch tausende Einzelpersonen und hunderte Teams einschließen soll. Beide Unternehmen teilen die Einschätzung, dass KI-Fähigkeiten im Cyberbereich bereits heute erheblich sind und dass Verteidiger bevorzugt Zugang erhalten müssen, bevor Angreifer die Oberhand gewinnen.
Ausblick
OpenAI kündigt an, die Sicherheitsmechanismen für kommende, noch leistungsfähigere Modelle weiter auszubauen. Das Unternehmen geht davon aus, dass die heutigen Schutzmaßnahmen für aktuelle Modelle ausreichen, für zukünftige Generationen jedoch umfangreichere Verteidigungsarchitekturen notwendig sein werden. GPT-5.4-Cyber ist dabei als erster Schritt in einem längerfristigen Programm zu verstehen, das Sicherheitsfähigkeiten und Schutzmaßnahmen parallel skalieren soll.


