„Schlampig“: OpenAI schließt nachträglich Geheimdienste wie die NSA von Pentagon-Deal aus
Es ist die vielleicht kritischste Phase des Unternehmens seit den Turbulenzen um Sam Altman selbst: der Deal des ChatGPT-Machers mit dem US-Kriegsministerium. Wie berichtet, führte er dazu, dass eine wachsende Zahl an Nutzern ihre ChatGPT-Accounts löschten, während der Hauptkonkurrent Anthropic (der den Deal mit dem Pentagon absagte) in manchen Ländern auf Platz 1 der App-Store-Charts schoss (und gleichzeitig mit Ausfällen kämpfen musste).
OpenAI-CEO Sam Altman hat nun Änderungen am kürzlich geschlossenen Vertrag mit dem US-Verteidigungsministerium angekündigt und eingeräumt, dass die Veröffentlichung des Deals überstürzt war. In einem auf X geteilten internen Memo erläuterte er die Nachbesserungen und den Hintergrund der Vereinbarung.
Neue Vertragsklauseln gegen Überwachung
OpenAI wird den Vertrag um explizite Schutzbestimmungen für US-Bürger erweitern. Die neue Formulierung legt fest, dass das KI-System nicht für die inländische Überwachung von US-Personen und Staatsangehörigen eingesetzt werden darf. Dies gelte in Übereinstimmung mit geltenden Gesetzen, einschließlich des vierten Verfassungszusatzes, des National Security Act von 1947 und des FISA Act von 1978.
Besonders hervorzuheben ist laut Altman die Klarstellung bezüglich kommerziell erworbener Daten. Das Verteidigungsministerium verstehe die Einschränkung so, dass sie die absichtliche Verfolgung, Überwachung oder Beobachtung von US-Personen verbiete, auch durch den Erwerb oder die Nutzung kommerziell erworbener persönlicher oder identifizierbarer Informationen.
Ausschluss von Geheimdiensten
Das Verteidigungsministerium soll laut Altman zudem bestätigt haben, dass OpenAIs Dienste nicht von Geheimdiensten wie der NSA genutzt werden. Jegliche Dienstleistungen für diese Behörden würden eine nachträgliche Vertragsänderung erfordern.
Altman räumt Fehler ein
Der OpenAI-Chef gestand ein strategisches Versäumnis ein. Man hätte den Deal nicht am Freitag überstürzt veröffentlichen sollen. Die Themen seien äußerst komplex und erforderten klare Kommunikation.
„Wir haben wirklich versucht, die Dinge zu deeskalieren und ein viel schlechteres Ergebnis zu vermeiden, aber ich denke, es sah einfach opportunistisch und schlampig aus“, schrieb Altman.
Die Ankündigung erfolgte am Freitag nur wenige Stunden, nachdem US-Präsident Donald Trump Bundesbehörden angewiesen hatte, die Nutzung von KI-Tools des Konkurrenten Anthropic einzustellen, und kurz bevor Washington Luftschläge gegen den Iran durchführte.
Der Konflikt mit Anthropic
Der Hintergrund der Kontroverse liegt in einem gescheiterten Abkommen zwischen Anthropic und dem Verteidigungsministerium. Anthropic war 2021 von ehemaligen OpenAI-Mitarbeitern gegründet worden, die das Unternehmen nach Meinungsverschiedenheiten über dessen Ausrichtung verlassen hatten. Das Unternehmen positioniert sich als „Safety-First“-Alternative.
Nach einem ersten Vertrag im vergangenen Jahr war Anthropic das erste KI-Labor, das seine Modelle im klassifizierten Netzwerk des Verteidigungsministeriums einsetzte. Später forderte das Unternehmen jedoch Garantien, dass seine Tools nicht für Zwecke wie inländische Überwachung in den USA oder für den Betrieb und die Entwicklung autonomer Waffen ohne menschliche Kontrolle verwendet würden.
Der Streit begann, nachdem bekannt wurde, dass Anthropics Claude im Januar vom US-Militär bei der Operation zur Festnahme des venezolanischen Präsidenten Nicolás Maduro eingesetzt worden war. Das Unternehmen hatte gegen diesen Einsatz nicht öffentlich protestiert.
Unklare Gründe für unterschiedliche Behandlung
Warum das Verteidigungsministerium OpenAIs Forderungen akzeptierte, die von Anthropic jedoch ablehnte, bleibt unklar. Regierungsvertreter hatten Anthropic allerdings monatelang dafür kritisiert, übermäßig besorgt über KI-Sicherheit zu sein. Verteidigungsminister Pete Hegseth erklärte am Freitag, Anthropic werde nun als Lieferkettenrisiko eingestuft – so wird sonst meistens nur it chinesischen Unternehmen (z.B. Huawei) umgesprungen.
Altman betonte in seinem Memo, er habe in Gesprächen am Wochenende bekräftigt, dass Anthropic nicht als Lieferkettenrisiko eingestuft werden sollte und dass OpenAI hoffe, das Verteidigungsministerium biete Anthropic die gleichen Bedingungen an.
Der OpenAI-CEO hatte auch argumentiert, dass er mit OpenAI quasi in die Bresche im Streit zwischen US-Administration und Anthropic gesprungen sei. „Der Grund für die Eile ist der Versuch, die Situation zu deeskalieren. Ich halte den derzeitigen Kurs für gefährlich für Anthropic, den gesunden Wettbewerb und die USA. Wir haben verhandelt, um sicherzustellen, dass allen anderen KI-Labors ähnliche Bedingungen angeboten werden“, schrieb er.
Technologische Grenzen und demokratische Prozesse
Der OpenAI-Chef verwies auch auf die Grenzen der Technologie. Es gebe viele Dinge, für die die Technologie noch nicht bereit sei, und viele Bereiche, in denen man die für die Sicherheit erforderlichen Kompromisse noch nicht verstehe. Man werde diese langsam mit dem Verteidigungsministerium durcharbeiten, mit technischen Schutzmaßnahmen und anderen Methoden.
Altman unterstrich zudem OpenAIs Position zu demokratischen Entscheidungsprozessen. Die Regierung solle die wichtigsten Entscheidungen über die Gesellschaft treffen. OpenAI wolle eine Stimme und einen Platz am Tisch haben, um sein Fachwissen zu teilen und für Freiheitsprinzipien zu kämpfen. Er stellte klar, dass er lieber ins Gefängnis gehen würde, als einen Befehl zu befolgen, den er für verfassungswidrig halte.
Nutzerreaktion auf den Deal
Das Timing von OpenAIs Vertrag mit dem Verteidigungsministerium löste Online-Kritik aus. Berichten zufolge wechselten viele Nutzer in App-Stores von ChatGPT zu Claude, wobei die Deinstallationen von ChatGPT um 295 Prozent anstiegen.

