USA

Anthropic-KI kam trotz Regierungsbann bei Iran-Angriff zum Einsatz – Bericht

Ai generated image of Anthropic's Claude in a militry usecase. © Nano Banana 2 by Trending Topics
Ai generated image of Anthropic's Claude in a militry usecase. © Nano Banana 2 by Trending Topics
Startup Interviewer: Gib uns dein erstes AI Interview Startup Interviewer: Gib uns dein erstes AI Interview

Nur wenige Stunden nachdem US-Präsident Donald Trump den Stopp der Nutzung von Künstlicher Intelligenz des Unternehmens Anthropic durch Bundesbehörden angeordnet hatte, setzte das US-Militär genau diese Technologie bei einem Luftangriff im Iran ein. Dies berichtet das Wall Street Journal unter Berufung auf informierte Personen.

Einsatz von Claude AI bei militärischen Operationen

Das US-Zentralkommando (CENTCOM), das für den Nahen Osten zuständig ist, verwendete das KI-Tool Claude von Anthropic während der Militäroperation. Laut Medienberichten kam die Technologie bei mehreren kritischen Aufgaben zum Einsatz:

  • Nachrichtendienstliche Bewertungen und Analysen
  • Identifizierung von Angriffszielen
  • Simulation von Kampfszenarien

Das Zentralkommando lehnte es ab, sich zu den spezifischen Systemen zu äußern, die bei der laufenden Operation gegen den Iran verwendet werden. Claude AI war zuvor bereits bei der US-Militäroperation zur Festnahme des venezolanischen Präsidenten Nicolas Maduro zum Einsatz gekommen.

Die genannten Einsatzszenarien von Claude würden nicht dem widersprechen, was Anthropic-CEO Dario Amodei vom US-Militär gefordert hatte. Er wollte ausdrücklich, dass Claude nicht im Bereich der Massenüberwachung (in den USA, wohlgemerkt) sowie im Bereich autonomer Waffensysteme zum Einsatz kommen darf.

Hintergrund des Konflikts zwischen Trump und Anthropic

Der Konflikt zwischen der US-Regierung und dem KI-Unternehmen Anthropic eskalierte am Freitag, nachdem CEO Dario Amodei die Forderungen des Pentagons zurückgewiesen hatte. Das Verteidigungsministerium hatte verlangt, dass Anthropic dem Militär uneingeschränkten Zugang zu seinen KI-Werkzeugen gewährt.

Trump ordnete daraufhin an, dass die meisten Bundesbehörden die Nutzung von Anthropic-Technologie sofort einstellen müssen. Dem Pentagon räumte er eine sechsmonatige Übergangsfrist ein, um die bereits in militärischen Plattformen eingebettete Technologie schrittweise zu ersetzen.

„Wir brauchen es nicht, wir wollen es nicht und werden nie wieder Geschäfte mit ihnen machen“, schrieb Trump in den sozialen Medien. Das US-Militär brauchte Claude im Nahen Osten dann aber wohl doch.

Der Präsident bezeichnete die Entscheidung von Anthropic als „katastrophalen Fehler“ und nannte die Mitarbeiter des Unternehmens „linksradikal“ und „woke“. Er warf ihnen vor, durch ihren „Egoismus amerikanische Leben zu gefährden und die nationale Sicherheit aufs Spiel zu setzen“.

Anthropics Begründung und rechtliche Schritte

Anthropic begründete seine Weigerung mit ethischen Bedenken. Das Unternehmen hatte sich in den vergangenen Monaten zunehmend besorgt über die potenzielle Nutzung seiner KI-Tools gezeigt, insbesondere im Hinblick auf:

  • Massenüberwachung im Inland
  • Vollautonome Waffensysteme

In einer Stellungnahme kündigte Anthropic an, die Einstufung als „Lieferkettenrisiko“ durch Verteidigungsminister Pete Hegseth gerichtlich anzufechten. Dies wäre das erste Mal, dass ein US-Unternehmen eine solche Bezeichnung erhält.

„Keine Einschüchterung oder Bestrafung durch das Verteidigungsministerium wird unsere Position zu Massenüberwachung im Inland oder vollautonomen Waffen ändern“, erklärte das Unternehmen.

Anthropic betonte, dass die Einstufung als Lieferkettenrisiko rechtlich nicht haltbar sei und einen gefährlichen Präzedenzfall für jedes amerikanische Unternehmen schaffe, das mit der Regierung verhandelt.

Auswirkungen auf bestehende Verträge

Anthropic ist seit 2024 im Einsatz bei US-Regierung und Militär und war das erste fortgeschrittene KI-Unternehmen, dessen Tools in Regierungsbehörden für klassifizierte Arbeiten eingesetzt wurden. Die neue Einstufung betrifft laut Unternehmensangaben nur die Nutzung von Claude bei Verträgen mit dem Verteidigungsministerium. Andere Geschäftsbereiche bleiben unberührt.

Unternehmen, die sowohl mit Anthropic als auch mit dem Militär zusammenarbeiten, müssen möglicherweise die Nutzung von Anthropic-Produkten für Aufträge im Auftrag des Verteidigungsministeriums einstellen. Das Unternehmen kündigte an, bei einem endgültigen Stopp der Zusammenarbeit einen reibungslosen Übergang zu einem anderen Anbieter zu ermöglichen.

Rank My Startup: Erobere die Liga der Top Founder!
Werbung
Werbung

Specials unserer Partner

Die besten Artikel in unserem Netzwerk

Deep Dives

RankMyStartup.com

Steig' in die Liga der Top Founder auf!
#glaubandich CHALLENGE Hochformat.

#glaubandich CHALLENGE 2026

Österreichs größter Startup-Wettbewerb - Top-Investoren mit an Bord
© Wiener Börse

IPO Spotlight

powered by Wiener Börse

2 Minuten 2 Millionen | Staffel 13

Alle Startups | Alle Deals | Alle Hintergründe

AI Talk

Der führende KI Podcast mit Clemens Wasner & Jakob Steinschaden

Future{hacks}

Zwischen Hype und Realität

Trending Topics Tech Talk

Der Podcast mit smarten Köpfen für smarte Köpfe

Weiterlesen