USA

Pentagon stellt Anthropic Ultimatum: Militär fordert vollen Zugang zu KI-Modell Claude

Dario Amodei, Chief Executive Officer and Co-Founder, Anthropic. © World Economic Forum / Sandra Blaser
Dario Amodei, Chief Executive Officer and Co-Founder, Anthropic. © World Economic Forum / Sandra Blaser
Startup Interviewer: Gib uns dein erstes AI Interview Startup Interviewer: Gib uns dein erstes AI Interview

Das US-Verteidigungsministerium hat dem KI-Unternehmen Anthropic ein Ultimatum bis Freitag nachmittags gestellt. Verteidigungsminister Pete Hegseth fordert vom Unternehmen uneingeschränkten Zugang zu dessen KI-Modell Claude für militärische Zwecke. Sollte Anthropic die Forderungen nicht erfüllen, droht die Trump-Regierung mit der Anwendung des Defense Production Act und der Einstufung des Unternehmens als Risiko für die Lieferketten.

Widersprüchliche Drohungen des Pentagon

Die beiden angedrohten Maßnahmen stehen grundsätzlich im Widerspruch zueinander. Während die Einstufung als Lieferkettenrisiko die Nutzung von Anthropics Produkten durch die Regierung verhindern würde, soll der Defense Production Act das Unternehmen zwingen, sein Modell kostenlos zur Verfügung zu stellen. Dieser Widerspruch zeigt laut Pentagon-Insidern sowohl den Grad der Verärgerung über Anthropics Widerstand als auch die Bedeutung, die das Modell für das Militär erlangt hat.

Der Defense Production Act wurde ursprünglich geschaffen, um die Produktion kriegswichtiger Güter anzuordnen. In jüngster Zeit kam er auch während der Corona-Pandemie zur Herstellung medizinischer Ausrüstung zum Einsatz. Die Anwendung auf ein Software-Unternehmen im Kontext eines Streits über KI-Nutzungsgrenzen wäre eine erhebliche Ausweitung der Reichweite dieses Gesetzes.

Anthropics Position: Grenzen für KI-Einsatz

Anthropic besteht auf bestimmten Zusicherungen, wie sein KI-Modell Claude verwendet werden darf. Das Unternehmen fordert Garantien, dass das Modell nicht für folgende Zwecke eingesetzt wird:

  • Massenüberwachung der US-Bevölkerung
  • Autonome Waffensysteme ohne menschliche Aufsicht, etwa bei Drohnenoperationen
  • Entwicklung von Waffen, die ohne menschliche Beteiligung feuern

Ein Sprecher von Anthropic erklärte, das Unternehmen wolle die Regierung unterstützen, müsse aber sicherstellen, dass seine Modelle im Einklang mit dem verwendet werden, was sie „zuverlässig und verantwortungsvoll leisten können“. CEO Dario Amodei betonte in einem Treffen mit Hegseth am Dienstag, sein Unternehmen habe niemals gegen legitime Militäroperationen Einwände erhoben oder diese behindert.

Pentagon: Rechtmäßige Nutzung liegt in unserer Verantwortung

Pentagon-Vertreter argumentieren, dass die rechtmäßige Verwendung von Software und Waffen in ihrer Verantwortung liege, eine Verantwortung, die sie ernst nähmen. Die Behörde könne es nicht zulassen, dass alle Auftragnehmer spezifizieren, wie die an das Pentagon verkaufte Ausrüstung verwendet werden darf. Die einzige Einschränkung müsse die rechtmäßige Nutzung sein.

Ein hochrangiger Pentagon-Beamter sagte: „Der einzige Grund, warum wir mit diesen Leuten noch reden, ist, dass wir sie brauchen, und zwar jetzt. Das Problem für diese Leute ist, dass sie so gut sind.“

Bedeutung von Claude für das Militär

Anthropic ist derzeit das einzige KI-Unternehmen, dessen System auf klassifizierten Militärsystemen läuft. Das Unternehmen hat mit Claude Gov ein spezielles Modell entwickelt, das andere Schutzmechanismen und Einschränkungen aufweist als die öffentlich verfügbaren Versionen.

Obwohl das Pentagon Vereinbarungen mit anderen Anbietern hat oder anstrebt, gilt Claude als überlegen:

  • xAI von Elon Musk: Vereinbarung zur Nutzung von Grok besteht, aber Integration ins klassifizierte System dauert noch. Grok wird als weniger präzise als Claude eingeschätzt.
  • Google: Verhandlungen über Gemini-Modell laufen, aber noch kein Abschluss.
  • OpenAI: Systeme werden für Forschungszwecke genutzt.

Die Entfernung von Claude aus den Pentagon-Systemen wäre laut Verteidigungsministerium extrem aufwendig.

Konsequenzen der Drohungen

Die Einstufung als Lieferkettenrisiko würde andere Unternehmen vor die Wahl stellen, entweder mit dem US-Militär oder mit Anthropic Geschäfte zu machen. Diese Einstufung war bisher ausländischen Gegnern vorbehalten. Für Anthropic könnte dies schwerwiegender sein als der Verlust des im Sommer zugesagten Vertrags über bis zu 200 Millionen US-Dollar für die Entwicklung agentischer KI-Arbeitsabläufe.

Jessica Tillipman, stellvertretende Dekanin an der George Washington University Law School, kommentierte: „Das Pentagon weiß, dass es eine extreme Drohung ausspricht. Sie nutzen jeden Knopf oder Hebel, den sie haben. Das größere Problem ist, dass dies diese Einstufungen verwässert. Sie verwandeln das, was als nationale Sicherheitsinstrumente konzipiert wurde, in einen Hebel für geschäftliche Zwecke.“

Einsatz von Claude in Venezuela und mögliche Verstöße

Laut einem Bericht des Wall Street Journal vom 14. Februar 2026 wurde Anthropics KI-Modell Claude vom US-Militär während der Operation zur Entführung von Venezuelas Präsident Nicolás Maduro eingesetzt. Dies ist ein prominentes Beispiel dafür, wie das US-Verteidigungsministerium künstliche Intelligenz in seinen Operationen nutzt.

Der US-Angriff auf Venezuela umfasste Bombardierungen in der Hauptstadt Caracas und führte laut venezolanischem Verteidigungsministerium zum Tod von 83 Menschen. Claude wurde offenbar über Anthropics Partnerschaft mit Palantir Technologies eingesetzt, einem Auftragnehmer des Verteidigungsministeriums. Unklar bleibt, wie genau das Tool verwendet wurde, dessen Fähigkeiten von der Verarbeitung von PDFs bis zur Steuerung autonomer Drohnen reichen.

Widerspruch zu Anthropics Nutzungsbedingungen

Anthropics Nutzungsbedingungen verbieten ausdrücklich den Einsatz von Claude für folgende Zwecke:

  • Gewalttätige Zwecke
  • Entwicklung von Waffen
  • Durchführung von Überwachungsmaßnahmen

Der Einsatz bei einer militärischen Operation, die Bombardierungen und Todesfälle zur Folge hatte, könnte gegen diese Richtlinien verstoßen. Ein Sprecher von Anthropic lehnte es ab, sich dazu zu äußern, ob Claude in der Operation eingesetzt wurde, betonte aber, dass jede Nutzung des KI-Tools den Nutzungsrichtlinien entsprechen müsse. Das US-Verteidigungsministerium und Palantir kommentierten die Vorwürfe nicht.

Dieser Vorfall könnte den Streit zwischen Anthropic und dem Pentagon weiter verschärfen. Während CEO Dario Amodei Regulierung fordert, um Schäden durch KI-Einsatz zu verhindern, und Zurückhaltung bei autonomen tödlichen Operationen und Überwachung in den USA zeigt, scheint das Militär Claude bereits in genau solchen Kontexten einzusetzen, die das Unternehmen künftig ausschließen möchte.

Rank My Startup: Erobere die Liga der Top Founder!
Werbung
Werbung

Specials unserer Partner

Die besten Artikel in unserem Netzwerk

Deep Dives

RankMyStartup.com

Steig' in die Liga der Top Founder auf!
#glaubandich CHALLENGE Hochformat.

#glaubandich CHALLENGE 2026

Österreichs größter Startup-Wettbewerb - Top-Investoren mit an Bord
© Wiener Börse

IPO Spotlight

powered by Wiener Börse

2 Minuten 2 Millionen | Staffel 13

Alle Startups | Alle Deals | Alle Hintergründe

AI Talk

Der führende KI Podcast mit Clemens Wasner & Jakob Steinschaden

Future{hacks}

Zwischen Hype und Realität

Trending Topics Tech Talk

Der Podcast mit smarten Köpfen für smarte Köpfe

Weiterlesen