Pentagon stellt Anthropic Ultimatum: Militär fordert vollen Zugang zu KI-Modell Claude
Das US-Verteidigungsministerium hat dem KI-Unternehmen Anthropic ein Ultimatum bis Freitag nachmittags gestellt. Verteidigungsminister Pete Hegseth fordert vom Unternehmen uneingeschränkten Zugang zu dessen KI-Modell Claude für militärische Zwecke. Sollte Anthropic die Forderungen nicht erfüllen, droht die Trump-Regierung mit der Anwendung des Defense Production Act und der Einstufung des Unternehmens als Risiko für die Lieferketten.
Widersprüchliche Drohungen des Pentagon
Die beiden angedrohten Maßnahmen stehen grundsätzlich im Widerspruch zueinander. Während die Einstufung als Lieferkettenrisiko die Nutzung von Anthropics Produkten durch die Regierung verhindern würde, soll der Defense Production Act das Unternehmen zwingen, sein Modell kostenlos zur Verfügung zu stellen. Dieser Widerspruch zeigt laut Pentagon-Insidern sowohl den Grad der Verärgerung über Anthropics Widerstand als auch die Bedeutung, die das Modell für das Militär erlangt hat.
Der Defense Production Act wurde ursprünglich geschaffen, um die Produktion kriegswichtiger Güter anzuordnen. In jüngster Zeit kam er auch während der Corona-Pandemie zur Herstellung medizinischer Ausrüstung zum Einsatz. Die Anwendung auf ein Software-Unternehmen im Kontext eines Streits über KI-Nutzungsgrenzen wäre eine erhebliche Ausweitung der Reichweite dieses Gesetzes.
Anthropics Position: Grenzen für KI-Einsatz
Anthropic besteht auf bestimmten Zusicherungen, wie sein KI-Modell Claude verwendet werden darf. Das Unternehmen fordert Garantien, dass das Modell nicht für folgende Zwecke eingesetzt wird:
- Massenüberwachung der US-Bevölkerung
- Autonome Waffensysteme ohne menschliche Aufsicht, etwa bei Drohnenoperationen
- Entwicklung von Waffen, die ohne menschliche Beteiligung feuern
Ein Sprecher von Anthropic erklärte, das Unternehmen wolle die Regierung unterstützen, müsse aber sicherstellen, dass seine Modelle im Einklang mit dem verwendet werden, was sie „zuverlässig und verantwortungsvoll leisten können“. CEO Dario Amodei betonte in einem Treffen mit Hegseth am Dienstag, sein Unternehmen habe niemals gegen legitime Militäroperationen Einwände erhoben oder diese behindert.
Pentagon: Rechtmäßige Nutzung liegt in unserer Verantwortung
Pentagon-Vertreter argumentieren, dass die rechtmäßige Verwendung von Software und Waffen in ihrer Verantwortung liege, eine Verantwortung, die sie ernst nähmen. Die Behörde könne es nicht zulassen, dass alle Auftragnehmer spezifizieren, wie die an das Pentagon verkaufte Ausrüstung verwendet werden darf. Die einzige Einschränkung müsse die rechtmäßige Nutzung sein.
Ein hochrangiger Pentagon-Beamter sagte: „Der einzige Grund, warum wir mit diesen Leuten noch reden, ist, dass wir sie brauchen, und zwar jetzt. Das Problem für diese Leute ist, dass sie so gut sind.“
Bedeutung von Claude für das Militär
Anthropic ist derzeit das einzige KI-Unternehmen, dessen System auf klassifizierten Militärsystemen läuft. Das Unternehmen hat mit Claude Gov ein spezielles Modell entwickelt, das andere Schutzmechanismen und Einschränkungen aufweist als die öffentlich verfügbaren Versionen.
Obwohl das Pentagon Vereinbarungen mit anderen Anbietern hat oder anstrebt, gilt Claude als überlegen:
- xAI von Elon Musk: Vereinbarung zur Nutzung von Grok besteht, aber Integration ins klassifizierte System dauert noch. Grok wird als weniger präzise als Claude eingeschätzt.
- Google: Verhandlungen über Gemini-Modell laufen, aber noch kein Abschluss.
- OpenAI: Systeme werden für Forschungszwecke genutzt.
Die Entfernung von Claude aus den Pentagon-Systemen wäre laut Verteidigungsministerium extrem aufwendig.
Konsequenzen der Drohungen
Die Einstufung als Lieferkettenrisiko würde andere Unternehmen vor die Wahl stellen, entweder mit dem US-Militär oder mit Anthropic Geschäfte zu machen. Diese Einstufung war bisher ausländischen Gegnern vorbehalten. Für Anthropic könnte dies schwerwiegender sein als der Verlust des im Sommer zugesagten Vertrags über bis zu 200 Millionen US-Dollar für die Entwicklung agentischer KI-Arbeitsabläufe.
Jessica Tillipman, stellvertretende Dekanin an der George Washington University Law School, kommentierte: „Das Pentagon weiß, dass es eine extreme Drohung ausspricht. Sie nutzen jeden Knopf oder Hebel, den sie haben. Das größere Problem ist, dass dies diese Einstufungen verwässert. Sie verwandeln das, was als nationale Sicherheitsinstrumente konzipiert wurde, in einen Hebel für geschäftliche Zwecke.“
Einsatz von Claude in Venezuela und mögliche Verstöße
Laut einem Bericht des Wall Street Journal vom 14. Februar 2026 wurde Anthropics KI-Modell Claude vom US-Militär während der Operation zur Entführung von Venezuelas Präsident Nicolás Maduro eingesetzt. Dies ist ein prominentes Beispiel dafür, wie das US-Verteidigungsministerium künstliche Intelligenz in seinen Operationen nutzt.
Der US-Angriff auf Venezuela umfasste Bombardierungen in der Hauptstadt Caracas und führte laut venezolanischem Verteidigungsministerium zum Tod von 83 Menschen. Claude wurde offenbar über Anthropics Partnerschaft mit Palantir Technologies eingesetzt, einem Auftragnehmer des Verteidigungsministeriums. Unklar bleibt, wie genau das Tool verwendet wurde, dessen Fähigkeiten von der Verarbeitung von PDFs bis zur Steuerung autonomer Drohnen reichen.
Widerspruch zu Anthropics Nutzungsbedingungen
Anthropics Nutzungsbedingungen verbieten ausdrücklich den Einsatz von Claude für folgende Zwecke:
- Gewalttätige Zwecke
- Entwicklung von Waffen
- Durchführung von Überwachungsmaßnahmen
Der Einsatz bei einer militärischen Operation, die Bombardierungen und Todesfälle zur Folge hatte, könnte gegen diese Richtlinien verstoßen. Ein Sprecher von Anthropic lehnte es ab, sich dazu zu äußern, ob Claude in der Operation eingesetzt wurde, betonte aber, dass jede Nutzung des KI-Tools den Nutzungsrichtlinien entsprechen müsse. Das US-Verteidigungsministerium und Palantir kommentierten die Vorwürfe nicht.
Dieser Vorfall könnte den Streit zwischen Anthropic und dem Pentagon weiter verschärfen. Während CEO Dario Amodei Regulierung fordert, um Schäden durch KI-Einsatz zu verhindern, und Zurückhaltung bei autonomen tödlichen Operationen und Überwachung in den USA zeigt, scheint das Militär Claude bereits in genau solchen Kontexten einzusetzen, die das Unternehmen künftig ausschließen möchte.

