Anthropic lehnt Einsatz von Claude für Massenüberwachung und autonome Waffen ab
Das KI-Unternehmen Anthropic weigert sich, dem US-Verteidigungsministerium uneingeschränkten Zugang zu seinem KI-Modell Claude zu gewähren.
Das Pentagon hatte dem Unternehmen ein Ultimatum bis heute, Freitag, gestellt und droht mit der Anwendung des Defense Production Act sowie der Einstufung als Lieferkettenrisiko, sollte Anthropic seine Nutzungsbeschränkungen nicht aufheben.
Zwei zentrale Einschränkungen
Anthropic besteht auf zwei spezifischen Ausnahmen bei der militärischen Nutzung seines KI-Modells Claude:
- Massenüberwachung im Inland: Das Unternehmen lehnt den Einsatz für umfassende Überwachung der US-Bevölkerung ab. Während Anthropic die Nutzung für rechtmäßige Auslandsaufklärung unterstützt, sieht es KI-gestützte Massenüberwachung im eigenen Land als unvereinbar mit demokratischen Werten.
- Vollautonome Waffensysteme: Claude soll nicht für Waffensysteme eingesetzt werden, die ohne menschliche Kontrolle Ziele auswählen und angreifen. Anthropic argumentiert, dass heutige KI-Systeme noch nicht zuverlässig genug für solche Anwendungen seien und angemessene Schutzmechanismen fehlen würden.
CEO Dario Amodei sagte, dass das Unternehmen niemals gegen legitime Militäroperationen Einwände erhoben habe und grundsätzlich die Bedeutung von KI für die Verteidigung demokratischer Staaten anerkenne. Das Claude LLM soll etwa beim Maduro-Einsatz in Venezuela zum Einsatz gekommen sein.
Widersprüchliche Drohungen des Verteidigungsministeriums
Verteidigungsminister Pete Hegseth fordert von Anthropic die Zustimmung zu „jeder rechtmäßigen Nutzung“ und die Entfernung der genannten Schutzmechanismen. Die beiden angedrohten Maßnahmen stehen dabei im Widerspruch zueinander:
- Die Einstufung als Lieferkettenrisiko würde die Nutzung von Anthropics Produkten durch die Regierung verhindern
- Der Defense Production Act soll das Unternehmen zwingen, sein Modell kostenlos zur Verfügung zu stellen
Ein hochrangiger Pentagon-Beamter erklärte: „Der einzige Grund, warum wir mit diesen Leuten noch reden, ist, dass wir sie brauchen, und zwar jetzt. Das Problem für diese Leute ist, dass sie so gut sind.“
Strategische Bedeutung von Claude
Anthropic ist derzeit das einzige KI-Unternehmen, dessen System auf klassifizierten Militärsystemen läuft. Claude wird laut Pentagon für verschiedene sicherheitsrelevante Aufgaben eingesetzt:
- Nachrichtendienstliche Analysen
- Modellierung und Simulation
- Operationsplanung
- Cyber-Operationen
Obwohl das Verteidigungsministerium Vereinbarungen mit anderen Anbietern wie xAI (Grok) und Google (Gemini) hat oder anstrebt, gilt Claude als technisch überlegen. Die Entfernung aus den Pentagon-Systemen wäre laut Verteidigungsministerium extrem aufwendig.
Möglicher Einsatz in Venezuela
Laut einem Bericht des Wall Street Journal vom Februar 2026 wurde Claude möglicherweise bereits bei einer US-Militäroperation in Venezuela eingesetzt, bei der es zu Bombardierungen in Caracas und laut venezolanischem Verteidigungsministerium zu 83 Todesopfern kam. Der Einsatz erfolgte offenbar über Anthropics Partnerschaft mit Palantir Technologies.
Dies könnte im Widerspruch zu Anthropics eigenen Nutzungsbedingungen stehen, die den Einsatz für gewalttätige Zwecke, Waffenentwicklung und Überwachungsmaßnahmen ausdrücklich verbieten. Ein Sprecher von Anthropic lehnte eine Stellungnahme zu diesem spezifischen Einsatz ab.
Rechtliche und politische Dimension
Die Anwendung des Defense Production Act auf ein Software-Unternehmen im Kontext eines Streits über KI-Nutzungsgrenzen wäre eine erhebliche Ausweitung dieses Gesetzes, das ursprünglich für die Produktion kriegswichtiger Güter geschaffen wurde.
Jessica Tillipman, stellvertretende Dekanin an der George Washington University Law School, warnte: „Das Pentagon weiß, dass es eine extreme Drohung ausspricht. Das größere Problem ist, dass dies diese Einstufungen verwässert. Sie verwandeln das, was als nationale Sicherheitsinstrumente konzipiert wurde, in einen Hebel für geschäftliche Zwecke.“
Position von Anthropic
Anthropic hat erklärt, dass die beiden geforderten Einschränkungen bisher kein Hindernis für die Nutzung durch das Militär dargestellt hätten. Das Unternehmen betonte, dass es das Verteidigungsministerium weiterhin unterstützen wolle, jedoch nicht „in gutem Gewissen“ auf die Forderungen eingehen könne.
Sollte das Pentagon Anthropic aus seinen Systemen entfernen, hat das Unternehmen einen reibungslosen Übergang zu einem anderen Anbieter zugesagt, um Unterbrechungen kritischer militärischer Missionen zu vermeiden. Für Anthropic geht es letztlich auch um einen Auftrag von etwa 200 Mio. Dollar.


