Entwicklung

Anthropic sucht weiter Zusammenarbeit mit Pentagon, will Bann rechtlich anfechten

Dario Amodei, Chief Executive Officer and Co-Founder, Anthropic. © World Economic Forum / Sandra Blaser
Dario Amodei, Chief Executive Officer and Co-Founder, Anthropic. © World Economic Forum / Sandra Blaser

Der OpenAI-Pentagon-Deal sei ein „safety theater“, und US-Präsident Trump würde Anthropic nicht mögen, weil er anders als von OpenAI kein „dictator-style praise“ bekommen würde: Anthropic-CEO Dario Amodei hat in einem internen Memo an die Belegschaft (das natürlich leakte), ordentlich ausgeteilt. Hintergrund: die Einstufung von Claude-KI als Lieferkettenrisiko durch das US-Kriegsministerium aufgrund der Weigerung, einen Deal über KI-Nutzung mit dem Pentagon zu schließen. Wie berichtet, machte OpenAI dann den Deal, zum Missgunsten der User, die ChatGPT scharenweise in Richtung Claude verließen.

Doch so richtig als Gewinner kann man Anthropic und Amodei nun auch nicht sehen, immerhin riskiert das Unternehmen dann doch einiges Business. Und so sucht das KI-Unternehmen, dass 2026 an die Börse gehen will, wieder bessere Beziehungen zur US-Administration. Anthropic-CEO Dario Amodei hat sich für einen internen Beitrag entschuldigt, der nach außen gelangt war, und signalisiert gleichzeitig die Bereitschaft zur weiteren Zusammenarbeit mit dem US-Verteidigungsministerium. Dies geht aus einer Stellungnahme vom 5. März 2026 hervor, die das Unternehmen nach der Einstufung als Lieferkettenrisiko durch das Pentagon veröffentlichte.

Entschuldigung für durchgesickerten internen Post

Amodei entschuldigte sich ausdrücklich für einen internen Beitrag, der an die Presse gelangt war. Der Post sei wenige Stunden nach Präsident Trumps Ankündigung auf Truth Social verfasst worden, Anthropic von allen Bundessystemen zu entfernen. „Es war ein schwieriger Tag für das Unternehmen, und ich entschuldige mich für den Ton des Beitrags. Er spiegelt nicht meine sorgfältigen oder überlegten Ansichten wider“, erklärte der CEO. Der Beitrag sei zudem sechs Tage alt und stelle eine veraltete Einschätzung der aktuellen Situation dar.

Trotz der Spannungen betonte Amodei, dass die wichtigste Priorität darin bestehe, sicherzustellen, dass Soldaten und Experten für nationale Sicherheit nicht wichtiger Werkzeuge beraubt werden. Anthropic werde seine Modelle dem Verteidigungsministerium zu nominalen Kosten und mit fortlaufender Unterstützung durch die eigenen Ingenieure zur Verfügung stellen, solange dies notwendig und erlaubt sei.

Begrenzte Auswirkungen der Lieferkettenrisiko-Einstufung

Das Verteidigungsministerium hatte Anthropic am 4. März 2026 offiziell als Lieferkettenrisiko für die nationale Sicherheit eingestuft. Amodei erklärte jedoch, dass die Auswirkungen dieser Designation begrenzt seien. Die Sprache im Brief des Ministeriums entspreche der Einschätzung, dass die überwiegende Mehrheit der Kunden nicht betroffen sei.

Die Einstufung gelte laut Amodei nur für die Nutzung von Claude durch Kunden als direkten Teil von Verträgen mit dem Verteidigungsministerium, nicht für alle Nutzungen durch Kunden, die solche Verträge haben. Der CEO verwies auf das relevante Gesetz (10 USC 3252), das den Schutz der Regierung zum Ziel habe und nicht die Bestrafung eines Lieferanten. Das Gesetz verlange vom Kriegsminister, die am wenigsten restriktiven Mittel zu verwenden, um das Ziel des Lieferkettenschutzes zu erreichen.

Anthropic kündigte an, die Einstufung gerichtlich anzufechten, da man sie nicht für rechtlich fundiert halte. Gleichzeitig betonte Amodei, dass man in den vergangenen Tagen produktive Gespräche mit dem Verteidigungsministerium geführt habe, sowohl über Möglichkeiten der Zusammenarbeit im Rahmen der eigenen Ausnahmen als auch über einen reibungslosen Übergang, falls dies nicht möglich sei.

Hintergrund: OpenAI Pentagon-Deal löst Kontroverse aus

Die Entwicklung bei Anthropic steht im Zusammenhang mit einem umstrittenen Deal zwischen OpenAI und dem Pentagon. Wenige Stunden nachdem Anthropic auf eine Bannliste des US-Kriegsministeriums gesetzt worden war, schloss OpenAI eine Vereinbarung mit dem Verteidigungsministerium über die Nutzung seiner KI-Modelle.

OpenAI veröffentlichte am Samstag detaillierte Vertragsbedingungen, die spezifische Einschränkungen definieren. Das KI-System darf autonome Waffensysteme nicht eigenständig steuern, sofern Gesetze oder Richtlinien menschliche Kontrolle vorschreiben. Ebenso untersagt der Vertrag die Übernahme anderer hochriskanter Entscheidungen, die menschliche Genehmigung erfordern. Bezüglich Überwachung legt die Vereinbarung fest, dass das System nicht für unbegrenzte Überwachung privater Informationen US-amerikanischer Personen eingesetzt werden darf.

OpenAI-CEO Sam Altman betonte, das Verteidigungsministerium habe zwei zentrale Sicherheitsprinzipien akzeptiert: das Verbot inländischer Massenüberwachung und menschliche Verantwortung beim Einsatz von Gewalt. Anthropic hatte zuvor den Einsatz seiner KI-Modelle für Massenüberwachung und vollautonome Waffen abgelehnt und einen Deal mit dem Pentagon platzen lassen.

Nutzerabwanderung von ChatGPT zu Claude

Der OpenAI Pentagon-Deal löste eine Welle der Nutzerabwanderung aus. Unter dem Motto „QuitGPT“, „DeleteChatGPT“ bzw. „CancelChatGPT“ wechselten zahlreiche User vom Chatbot von OpenAI zum Konkurrenten Claude von Anthropic. Anthropics Claude überholte ChatGPT und rangierte am Montag auf Platz eins der meist geladenen Produktivitäts-Apps im Apple App Store in den USA, Deutschland und Kanada.

Zahlreiche ChatGPT-Nutzer dokumentierten ihre Kontokündigungen öffentlich. Popstar Katy Perry teilte auf X einen Screenshot der Claude-Preisseite. Im ChatGPT-Subreddit forderten Dutzende Nutzer andere auf, ihre Accounts zu löschen. Die Reaktionen fielen jedoch nicht einheitlich aus. In mehreren Reddit-Diskussionen argumentierten Kommentatoren, die Nachricht beeinflusse ihre Modellwahl nicht. Sie verwiesen auf Anthropics Partnerschaft mit Palantir und Amazon Web Services, die im November 2024 geschlossen wurde und US-Geheimdiensten sowie Verteidigungsbehörden Zugang zu Claude-Modellen gewährt.

Amodei schloss seine Stellungnahme mit der Betonung, dass Anthropic viel mehr mit dem Verteidigungsministerium gemeinsam habe als Unterschiede. Beide seien dem Fortschritt der US-amerikanischen nationalen Sicherheit und dem Schutz des amerikanischen Volkes verpflichtet und stimmten in der Dringlichkeit überein, KI in der gesamten Regierung anzuwenden.

Rank My Startup: Erobere die Liga der Top Founder!
Werbung
Werbung

Specials unserer Partner

Die besten Artikel in unserem Netzwerk

Deep Dives

#glaubandich CHALLENGE Hochformat.

#glaubandich CHALLENGE 2026

Österreichs größter Startup-Wettbewerb - Top-Investoren mit an Bord

RankMyStartup.com

Steig' in die Liga der Top Founder auf!
© Wiener Börse

IPO Spotlight

powered by Wiener Börse

2 Minuten 2 Millionen | Staffel 13

Alle Startups | Alle Deals | Alle Hintergründe

AI Talk

Der führende KI Podcast mit Clemens Wasner & Jakob Steinschaden

Future{hacks}

Zwischen Hype und Realität

Trending Topics Tech Talk

Der Podcast mit smarten Köpfen für smarte Köpfe

Weiterlesen